BriefGPT.xyz
大模型
Ask
alpha
关键词
knowledge-distillation
搜索结果 - 2
参与、提炼、检测:注意力感知的熵提炼用于异常检测
我们提出了一种基于 DCAM(分布式卷积注意模块)的知识蒸馏方法,可以改善教师和学生网络之间的蒸馏过程,减少多类别或多对象情况下的交叉类干扰问题,并通过最小化空间维度上的相对熵和教师和学生的相同特征图之间的通道相关余弦相似性来实现尺度不变性
→
PDF
2 months ago
针对设备内单通道语音增强的 Wav2Vec2 嵌入层的深入研究
通过对自监督学习表示进行研究,我们发现它们在挑战性条件下的单通道语音增强任务中几乎没有增加价值。为了系统地评估 SSL 表示对这些增强模型性能的影响,我们提出了多种利用这些嵌入的技术,包括不同形式的知识蒸馏和预训练。
PDF
4 months ago
Prev
Next