BriefGPT.xyz
Ask
alpha
关键词
contextualized attention-based distillation
搜索结果 - 1
基于上下文关注机制的口语会话问答知识转移
该研究提出了一种名为 CADNet 的方法,该方法使用上下文化注意力分层蒸馏技术,从而在 SCQA 任务中更好地抵御 ASR 噪声,最终在 Spoken-CoQA 数据集上实现了显著性能提升。
PDF
4 years ago
Prev
Next