CLICKER: 基于关注的跨语言常识知识转移
本研究提出一个新的简单方法,利用预先训练的跨语言模型来进行常识推理,并在多语言 Winograd 模式语料库上进行了评估,结果表明即使在其他语言中零样本情况下,该方法具有与监督和非监督方法相当的性能表现,并提供了多语言编码器普遍推理能力的证据。
Jun, 2021
为了促进通识推理(CSR)的进一步发展,作者提出了用于评估和改进流行的多语言语言模型(ML-LMs)的方法,其中包括收集 Mickey 语料库、提出综合的评估方法和介绍多语言对比预训练(MCP)的有效性。作者还创建了两个新数据集,X-CSQA 和 X-CODAH,以评估流行的 ML-LMs 用于跨语言通识推理的能力。
Jun, 2021
本研究探讨了多语言语言模型(MultiLMs)在针对不同语言推理时,是否能够将逻辑推理能力转移到其他语言。通过在两种方案中评估 MultiLMs 的跨语言推理能力,我们发现在单语言设置下,MultiLMs 可以在语言之间传递推理能力,但在混合代码推理的情况下,它们很难传递推理能力。基于此观察,我们提出了一种新颖的注意机制,利用专门的参数集在混合代码序列中鼓励跨语言注意力,从而在 RuleTaker 和 LeapOfThought 数据集上分别将推理性能提高了 14% 和 4%。
Oct, 2023
本研究探讨了如何将零 - shot 模型从高资源语言(一般是英语)迁移到其他语言,结果表明在不同语言的查询和文档中使用零 - shot 排名算法的有效性会降低。因此,我们提出利用双语词典生成人工混合语言的数据来训练排名模型,我们对从跨语言词嵌入和平行维基百科页面标题引导的词典进行了实验,最终在多语言、跨语言和单语言信息检索方面进行了评估。结果表明,使用代码切换可以在跨语言和多语言检索中带来一致且实质性的收益。
May, 2023
在这篇论文中,我们研究了如何利用问题对齐方法提高大型语言模型在非英语性能上的应用,通过对可执行代码推理和常识推理的影响进行探索,并通过代理调整的方式实现对极大型语言模型的高效应用。多语言推理基准测试结果显示,问题对齐方法能够在不同推理场景、模型系列和大小上提升多语言性能。与 LLaMA2 模型相比,我们的方法平均提高了 mGSM 的准确率 12.2%,即使在 70B 模型上也是如此。通过分析表示空间、思维链和翻译数据规模,我们还揭示了问题翻译训练如何增强 LLMs 内部的语言对齐,并塑造它们的工作模式。
May, 2024
本研究提出一种通用预训练语言模型的常识知识转移框架,通过从神经常识知识模型中提取框架通用文本中的常识知识并利用两个自监督目标对模型进行改进,使其更好地传递到需要常识推理的下游任务中并取得显著改善。
Jun, 2023
本文研究了如何通过增强预训练语言模型的知识感知图神经网络编码器来解决复杂的常识推理任务,并发现这种方法中的关系特征是主要的贡献因素。通过基于统计关系路径获取的特征设计一个简单的 MLP-based 知识编码器,不仅提高了 PTMs 的性能,而且还大大减少了编码 CSKGs 的参数。
May, 2022
介绍了如何利用当前的机器学习方法,通过知识迁移、模型集成和引入配对对比目标等方法,改进通用预训练语言模型在常识推理任务中,取得超过 15%的配对准确度和超过 8.7%的标准准确度的绝对增益。
Oct, 2023
跨语言能力:大型语言模型在不同语言的推理任务中展示出令人印象深刻的推理能力。本研究将推理任务分解为两个独立的部分:知识检索和无知识推理,并分析它们的跨语言可迁移性。通过适应和构建无知识推理数据集,我们展示了无知识推理能力可以在各种资源中几乎完全可转移,尽管在某些特定目标语言中存在资源的次要影响,而跨语言知识检索显著阻碍了迁移。此外,通过分析推理任务中的隐藏状态和前馈网络神经元的激活,我们展示了隐藏表示的更高相似性和激活神经元的更大重叠可以解释无知识推理比知识检索具有更好的跨语言可迁移性。因此,我们假设无知识推理嵌入了某种语言共享的机制,而知识则分别存储在不同的语言中。
Jun, 2024