注意力机制是否具备人类阅读特征?情感分类任务视角
研究发现,将不同权重分配给句子中的单词能够有效提高句子的表达能力,该论文提出了两种基于 Surprisal、POS tags 和 CCG supertags 的注意力机制模型用于改进句子表示,实验证明这种方法显著优于现有模型。
Sep, 2016
通过对机器注意力机制和人类视觉注意力关系的系统研究,本文发现人类关注可以作为注意驱动任务有意义的基准,并证明更接近人工注意力机制的性能更好,同时更好的注意力对于更高级别的计算机视觉任务的可解释性也有显著提升。
Jun, 2019
通过比较两个任务特定的阅读数据集,研究表明,大规模预训练自注意力模型对于人类注意力的预测能力依赖于罕见语境的句法性质,而任务特定的微调不增加与人类阅读的相关性,并且通过输入减少实验给出了互补信息,表明低熵的注意向量更为可靠。
Apr, 2022
该研究提出了一种具有注意力机制的方法来计算上下文语义相关性,这种方法能更准确地预测眼动数据库中基于汉语阅读任务的定视持续时间,并具有高解释性,有助于深入理解语言理解过程。
Mar, 2024
通过比较使用不同架构的神经网络在机器阅读理解中的表现,发现与人类视觉注意力较为相似的 LSTM 和 CNN 模型的性能表现显著关联,但与之性能最佳的 XLNet 模型关联性不明显,提示不同架构的神经网络的注意力策略存在差异,且神经注意力与人类注意力相似性并不代表拥有最佳表现。
Oct, 2020
通过使用基于 Transformer 的模型结合了时空注意机制,我们研究了影响视频记忆性的语义和时间注意机制,并对一个大型自然主义视频数据集上的视频记忆性预测任务表现进行了比较。结果显示模型的注意力与人类凝视的密度图表现出相似的模式,并且模型和人类对于物体类别的关注度与记忆性得分有关。此外,该模型模仿了人类在时间上的注意力,对于初始帧更加重视。
Nov, 2023
研究通过使用新的包含视觉图像和口头描述的数据集,比较了人类在自由观看和图像描述任务中的注意力差异以及注意力部署机制,并分析了软注意机制与人类注意力之间的相似性。最终表明人类注意力与当前的软注意机制仍存在较大差距,并且将软注意机制与视觉显著性进行集成,可以在 Flickr30k 和 MSCOCO 基准测试中显著提高模型的性能。
Mar, 2019
研究关注机制在 NLP 中的应用,提出了一个针对循环网络序列分类任务中存在的问题的解决方法,并给出了证明,说明关注机制可以提供循环模型的可靠解释。
May, 2020
本文提出一种新颖的方法来模拟和模拟人类注意力的近似预测模型,并将其作为结构化辅助特征图输入到下游学习任务中,通过在物体检测和模仿学习两个任务中的应用实验证明了人类注意力的预测可以提高训练模型的鲁棒性和在低数据情景下的快速学习。
Aug, 2023