BriefGPT.xyz
Ask
alpha
关键词
attention visualization
搜索结果 - 3
Shapley Head Pruning: 多语言变换器中干扰的识别与消除
通过识别和裁剪语言特定的参数,可以减少干扰,从而提高多语言变压器模型的性能,使用 Shapley Values 等指标来指导删除头注意力。
PDF
2 years ago
ECCV
卷积神经网络的通用可视化方法
本研究提出了一种不需要结构性改变或微调卷积神经网络的方法,利用 L2-CAF 作为一种注意力滤波器,从而实现检索网络的注意力可视化,实现了在物体定位方面的最先进研究成果。
PDF
4 years ago
多模态解释:证明决策并指向证据
本研究提出了一种多模态方法来解释深层模型,同时训练文本生成和注意权重可视化,研究结果表明该方法可以产生更好的文本解释模型,并能更好地定位支持分类决策的证据,从而明显优于单模态方法。
PDF
6 years ago
Prev
Next