BERT 模型中复合词的心理语言学分析
本文探讨了 BERT 对句法层次结构、位置信息以及自注意力向量的编码,并发现 BERT 在较低的层次上良好地编码了位置信息,在较高的层次上则更倾向于编码层次结构,这表明 BERT 的表示法确实模拟了语言的一些层次结构,并且对于处理反身代词的普遍敏感性没有人类大脑那么强。
Jun, 2019
该研究针对多语言预训练语言模型(LMs)的词汇多义性知识不清晰的问题,提出了一种新的实验方法,通过对反应词语多义性分布的数据集进行分析,控制与多义性高度相关的参数,证明 BERT-derived 的表示能够反映单词的多义水平以及它们拆分为不同义项。它揭示了 contextualized representations 中编码的知识并为多语言词汇语义研究开创了新的途径。
Apr, 2021
提出了一种改进的语言表示模型 Semantics-aware BERT,通过集成来自预训练语义角色标注的显式上下文语义,从而在十项阅读理解和语言推理任务中获得了新的最先进或实质性改进的结果,以促进自然语言理解。
Sep, 2019
本文描述了一种特别有效的模型 BERT,它能够通过从语义和句法子空间中提取一般有用的语言特征来代表语言信息,同时还探讨了注意力矩阵和单词嵌入中的句法表示,并提出了一种数学证明来解释这些表示的几何形态。
Jun, 2019
本文系统地分析了最新预训练 transformer 模型中对词组的表征方式,并使用人类对词组相似度和语义转换的判断来比较单词重叠与组成效应对因素间的影响。结果表明这些模型对词汇内容依赖很强,且未发现有像人类那样的精细组成效应。同时,本文还发现了在不同模型、层次和表征类型之间的词组表征质量的差异,并为使用这些模型的表征提出了相应的建议。
Oct, 2020
本研究以 BERT 为例,探究预训练语言模型的输入分割如何影响其复杂单词的语义表示,揭示了 PLMs 可以解释为串行双路模型,最有意义的输入标记应该允许在新词汇上进行最佳泛化。通过一系列的语义探测任务,我们证明了有派生输入分割的 DelBERT 能够显著地优于 WordPiece 分割的 BERT。减少子词切分的输入标记或许能够提高 PLMs 的泛化性能。
Jan, 2021
本文提出了第一种使用上下文词表示进行无监督词汇语义变化的方法。利用 BERT 神经语言模型来获取单词用法的表示,将这些表示聚类到用法类型,并用三种提出的度量方式衡量关于时间的变化。创造了一个新的评估数据集,并表明模型表示和检测到的语义转移与人类判断之间呈正相关。 extensive 的定性分析表明,我们的方法捕捉了各种同步和历时语言现象。我们期望我们的工作将激发进一步的研究。
Apr, 2020
通过比较多种 BERT-based 语言模型中的语境化词嵌入,我们评估了西班牙语歧义名词的语义表达。我们开发了一个新颖的句子数据集,并收集了人类的相关性判断。结果显示,这些语言模型的语义表达在人类判断中捕捉到一些差异,但不能达到人类水平。与英语不同,我们发现在西班牙语中,模型规模与性能之间没有相关性。此外,我们还发现了目标名词消歧的陈规轨迹,并在英语中部分复制了这一结果。我们贡献了(1)一组包含人类相关性判断的西班牙语句子刺激数据集,以及(2)认识到语言模型规格(结构,训练方案)对语境化嵌入的影响。
Jun, 2024
本研究针对 6 种不同语言和 5 种不同词汇任务,对单语和多语言源 LM、无上下文编码和有上下文编码、特殊标记的包含和分层平均等不同词汇知识提取策略的影响进行了系统的实证分析,并验证了较低变压器层携带更多类型级词汇知识的主张。
Oct, 2020
本文探讨了使用多任务学习的方式通过增加语言知识提高 RoBERTa、BERT、DistilBERT 等模型在问答任务上的表现,并发现这些模型在表示组合与词汇语义方面存在差异。
Sep, 2020