多语言模型中的语言身份反事实检测
通过调查五种预训练语言模型在特殊条件下进行的逆向推理,发现这种逆向推理主要受到基于单词关联的影响,只有 GPT-3 能够展现对语言细微差别的敏感性。
May, 2023
文章提出了 CausaLM 框架,基于 fine-tuning 的 deep contextualized embedding models 通过辅助对抗性训练任务,学习给定概念的反事实表示,用于估计其对模型性能的真实因果效应。我们的方法的副产品是一种语言表示模型,可以减轻数据中固有的不良偏差。
May, 2020
该研究通过在不同语言的多语言语言模型和单语 BERT 模型中执行反事实扰动,并观察模型主谓一致概率的效果,发现了受语法一致性影响的神经元的分布情况,语言模型的行为分析可能低估了掩码语言模型对语法信息的敏感性。
Oct, 2022
通过两个无参数的语言表示投影模块(LRP2),本文调查了从英语到非英语语言的显式传输相对丰富的事实知识的可行性,并在 mLAMA 数据集上的实验结果证明了 LRP2 显著提高了事实知识检索精度,促进了对多种非英语语言的知识传递能力。
Nov, 2023
本研究介绍了一个广泛的多语言探测词形信息数据集,利用预训练变形金刚模型(mBERT 和 XLM-RoBERTa),并应用两种方法确定输入中区别信息的位置以实现强大的性能。其中最显著的发现是前缀上下文持有比后缀上下文更多相关预测信息。
Jun, 2023
本研究提出三种方法以提高跨语言表示的效果,包括将目标语言的向量空间重新对齐到源语言,去除语言特异性的均值和方差,以及通过去除形态和句子重新排序来增加跨语言相似性。研究发现,这些方法联合使用可以降低跨语言转移障碍。
Aug, 2020
本研究探究了大型语言模型(LLMs)进行反事实生成和数据增强的能力,发现 LLMs 很有效的进行反事实生成,但因为自身限制和缺少实用逻辑指导,在某些复杂任务上表现欠佳。提供准确的任务定义和详细的操作步骤对于在 LLMs 中生成反事实具有决定性影响。同时,研究还证明了 LLMs 可能在缺乏合理演示的情况下生成合理的反事实,说明演示主要用于规范输出格式。因此,基于 LLMs 进行数据增强来增强 SLMs 是一种非常有前景的研究和应用方向。
May, 2023
NLP 模型生成反事实样本的能力及其对数据增强的影响进行了比较和评估,发现 LLMs 生成流利但改动较大的反事实样本,数据增强效果与人工生成的样本相比有明显差距。此外,LLMs 对偏标签数据的评估表现出明显的偏向性,而 GPT4 对此偏见更加稳健,并且其得分与自动评价指标具有很好的相关性。研究结果揭示了几个限制,并指出了未来的研究方向。
Apr, 2024
本文提出了 AlterRep 方法,运用语言特征替换来检测 BERT 模型在处理语法复杂句子时是否符合英语语法规则;研究表明,BERT 模型在处理不同类型的关系从句时,依据相应的英语语法规则进行模拟预测,展示了从抽象的语言类别处理相对从句信息的能力。
May, 2021