每个词都很重要:一种多语言分析模型注意力与个人对齐的方法
本文提出了一种基于 transformer 和回归模型的方法,利用眼动追踪数据预测多语言数据集中人类阅读模式的统计指标,通过模型训练和比较不同的 transformer 模型,我们在 CMCL 2022 共享任务中取得了显著的成果,获得了 SubTask-1 第 4 名和 SubTask-2 第 1 名的好成绩。
Mar, 2022
本文研究利用大型语言模型来预测人类阅读行为,并比较了针对特定语言和多语言的预训练变压器模型在预测荷兰语、英语、德语和俄语文本上反映自然人类句子处理的阅读时间测量方面的表现。结果显示,变压器模型可以准确地模拟人类阅读行为,预测出了各种眼动特征,表明变压器模型可以以类似于人类处理机制的方式隐式地编码语言的相对重要性。作者还分析了这些模型的跨领域和跨语言能力,并展示了它们如何反映人类句子处理。
Apr, 2021
通过比较两个任务特定的阅读数据集,研究表明,大规模预训练自注意力模型对于人类注意力的预测能力依赖于罕见语境的句法性质,而任务特定的微调不增加与人类阅读的相关性,并且通过输入减少实验给出了互补信息,表明低熵的注意向量更为可靠。
Apr, 2022
本文报告了两个眼动追踪语料库和两种语言模型(BERT 和 GPT-2)的实验结果。实验表明,预测自然阅读过程中多种眼动追踪参数时,包含的特征和基于 transformer 的语言模型的架构都发挥了作用。同时通过 SP-LIME,实验分析了不同特征组的相对重要性。
Mar, 2022
本研究通过对 18 种语言进行多语言 BERT 的解码实验,以测试依存句法是否反映在注意力模式中的普适性,并归纳出单一注意力头可以以上线准确率解码全树。尝试通过对 mBERT 进行监督解析目标的微调,结果表明注意力模式可以代表语言结构。
Jan, 2021
研究发现在 LLMs 生成代码时,它们所关注的自然语言描述与人类程序员的关注点不一致,而一个基于扰动的计算方法的注意力最大程度地与人类注意力一致,说明我们需要更符合人类关注点的 LLMs 以提高代码生成的可解释性和程序员的信任度。
Jun, 2023
本文探讨了阅读文本时眼动的影响,并研究了多语言模型对跨语言转移的使用。作者使用句子级别的眼动模式将结构复杂性作为认知指标,并表明多语言模型 XLM-RoBERTa 能够成功地预测 13 种形态上不同的语言的模式。作者还对模型对结构复杂性的敏感性进行了量化,并区分了一系列复杂性特征。结果表明,模型不仅对句子长度有意义的偏见,还整合了跨语言之间的差异。同时,作者还进行了随机单词顺序的控制实验,并发现该模型似乎还捕捉到了更复杂的结构信息。
Feb, 2023
基于人类行为学视角,我们探究了大型语言模型(LLMs)的预测过程和内部机制,通过将 LLMs 的值与眼动测量结果相关联,发现 LLMs 表现出与基于 RNN 的语言模型不同的预测模式。此外,随着前馈网络(FFN layers)的升级,记忆和语言知识编码的能力也逐渐提升直至达到巅峰,并转向注重理解能力。自注意力机制的功能分布在多个头部。最后,我们审查了门控机制,发现它们控制信息的流动,有些门控机制促进信息的传递,而其他门控机制则消除信息。
Oct, 2023
本文提出了一种名为 Eyettention 的双序列模型,它可以同时处理词序列和注视序列,通过交叉序列注意机制实现了两个序列的对齐,并在不同的语言数据集上进行了广泛评估和深入分析。结果显示,Eyettention 在预测扫描路径方面表现优于现有模型。
Apr, 2023
通过对 NMT 模型的多个语言对进行实验,本文发现在自我关注和编码器解码器注意头方面的注意力头是对于特定的语言对的翻译比其他更加具有特定性,可以通过指标去评估其注意力权重的一些方面,同时还可以通过评估注意力头相对于翻译质量的重要性来对其进行系统排名,并发现最重要的注意力头在各种语言对中非常相似且几乎可以删除不那么重要的注意头而不严重影响翻译质量。
May, 2021