BriefGPT.xyz
Ask
alpha
关键词
input reduction
搜索结果 - 3
ACL
Transformer 模型是否显示出与任务特定的人类凝视类似的注意力模式?
通过比较两个任务特定的阅读数据集,研究表明,大规模预训练自注意力模型对于人类注意力的预测能力依赖于罕见语境的句法性质,而任务特定的微调不增加与人类阅读的相关性,并且通过输入减少实验给出了互补信息,表明低熵的注意向量更为可靠。
PDF
2 years ago
基于梯度的 NLP 模型分析易受操控
本文研究了神经网络自然语言处理模型的可解释性,特别是基于梯度的分析方法。我们发现,这些分析方法的梯度很容易被劫持,具有误导性。结合多项自然语言处理任务的实验结果,本文提出一种基于覆盖层的方法来干扰和欺骗这些梯度。
PDF
4 years ago
EMNLP
神经模型的病态使解释困难
通过 input reduction 方法研究了神经网络模型的缺陷,发现在面对异常数据时大多数模型都表现出困难并难以解释,提出了一种 fine-tuning 方法,通过提高模型的输出熵,增强模型的可解释性。
PDF
6 years ago
Prev
Next