BriefGPT.xyz
Ask
alpha
关键词
multi-head self-attention mechanism
搜索结果 - 3
挑选未充分利用的头部:关注网络修剪对于融合对话指代信息的头部选择的视角
通过网络修剪的角度,研究了一种特征注入的注意头选择和操作策略,并在对话摘要中进行了案例研究,结果表明通过注意头操作注入指代关系信息可以提高对话摘要的性能。
PDF
7 months ago
ARBEx: 针对健壮面部表情学习的注意力特征提取与可靠性平衡
本文介绍了一种新的注意力特征提取框架 ARBEx,该框架由 Vision Transformer 驱动,具有可靠性平衡功能,可以应对面部表情学习任务中的类别分布不佳、偏差和不确定性。与基于窗口的交叉注意力 ViT 一起,我们加强了几种数据预
→
PDF
a year ago
EMNLP
人类引导下解释性注意力模式在摘要和主题分割中的应用
该论文介绍了一种结合人机交互的流程来发现重要的任务特定的注意力模式,然后注入到原始模型和较小的模型来提高模型的准确性与效率,取得了在提取式摘要和主题分割方面显著提高的结果。
PDF
3 years ago
Prev
Next