多语言语言模型事实的追溯:独立、共享和转移知识
该研究创建了一个跨 23 种不同语言的多语言基准测试,旨在评估语言模型中的事实知识检索能力,并提出了基于语言切换的方法来提高多语言模型获取知识的能力。
Oct, 2020
通过两个无参数的语言表示投影模块(LRP2),本文调查了从英语到非英语语言的显式传输相对丰富的事实知识的可行性,并在 mLAMA 数据集上的实验结果证明了 LRP2 显著提高了事实知识检索精度,促进了对多种非英语语言的知识传递能力。
Nov, 2023
通过研究大型语言模型在预训练过程中获得事实知识的机制,发现预训练数据量的增加并不显著提高模型获得和保持事实知识的能力,训练步骤与记忆遗忘和事实知识的泛化之间存在幂律关系,重复训练数据会导致遗忘加速,而使用更大的批量大小有助于提高模型的遗忘鲁棒性。事实知识在预训练过程中的获取是通过逐步增加每一步预训练数据中出现的事实知识的概率,但此提升会受到后续遗忘的影响。根据这一解释,我们对大型语言模型的表现提供了合理的解释,如对尾部知识的糟糕表现以及去重预训练语料库的好处。
Jun, 2024
通过设计基准测试 Pinocchio,综合评估大型语言模型 (LLMs) 中的事实知识的广度和范围,研究发现现有的 LLMs 仍然缺乏事实知识并存在各种虚假相关性,这成为实现可靠人工智能的关键瓶颈。
Oct, 2023
本研究通过对九种语言进行分析,系统评估了跨语言和地理区域的多语言大型语言模型的事实准确性,发现英语在事实准确性和生成事实的数量方面一直表现优异,并且多语言模型对来自西方大陆的事实信息存在偏见,这些发现凸显了改善多语言事实评估的需求和大型语言模型事实生成中的地理偏差。
Feb, 2024
本文提出了在多种语言中增强多语言知识图谱 (MLKGs) 的多语言语言模型 (MLLMs) 的轻量级适配器,以利用跨语言实体对齐和从 MLKGs 中获取事实,并在共同基准实验中展示了该增强模型在语言理解任务和知识图谱任务方面的性能优势。
Oct, 2022
大型语言模型 (LLMs) 面临处理事实知识的问题,本研究通过知识探测框架 BELIEF (-ICL),从多个角度评估编码器型和解码器型大型语言模型对事实知识的理解能力,并利用多样的提示数据集 MyriadLAMA 进行可靠的评估,揭示了大型语言模型在学习事实方面的关键因素和基于提示的知识探测的局限性。
Jun, 2024
本研究通过提出 Prix-LM 模型,利用大型预训练语言模型在多种语言间进行联合表示,构建和完善多语言知识库,并在实体相关任务方面展示其有效性。
Oct, 2021
本文调查了多语言语言模型(如 mBERT 和 XLM-R)在一些语言下对事实知识预测的一致性,并发现尽管在英语下,这些模型的一致性与其单语言模型相似,但在其他 45 种语言下,这些模型的一致性程度却较低。
Mar, 2022
多语种知识编辑 (MKE) 旨在同时修订大型语言模型 (LLMs) 中的事实知识。我们研究了 LLMs 如何表示多语种事实知识,并发现不同语言中的相同事实知识通常激活一组共享的神经元,我们称之为语言不可知事实神经元。基于此发现,我们提出了一种通过定位和修改语言不可知事实神经元来同时编辑多语种知识的新方法。在 Bi-ZsRE 和 MzsRE 基准上的实验结果表明,我们的方法优于现有的 MKE 方法,并取得了显著的编辑性能,表明考虑多语种知识之间的语义连接的重要性。
Jun, 2024