CLOMO:大型语言模型的反事实逻辑修改
本研究探究了大型语言模型(LLMs)进行反事实生成和数据增强的能力,发现 LLMs 很有效的进行反事实生成,但因为自身限制和缺少实用逻辑指导,在某些复杂任务上表现欠佳。提供准确的任务定义和详细的操作步骤对于在 LLMs 中生成反事实具有决定性影响。同时,研究还证明了 LLMs 可能在缺乏合理演示的情况下生成合理的反事实,说明演示主要用于规范输出格式。因此,基于 LLMs 进行数据增强来增强 SLMs 是一种非常有前景的研究和应用方向。
May, 2023
NLP 模型生成反事实样本的能力及其对数据增强的影响进行了比较和评估,发现 LLMs 生成流利但改动较大的反事实样本,数据增强效果与人工生成的样本相比有明显差距。此外,LLMs 对偏标签数据的评估表现出明显的偏向性,而 GPT4 对此偏见更加稳健,并且其得分与自动评价指标具有很好的相关性。研究结果揭示了几个限制,并指出了未来的研究方向。
Apr, 2024
基于现有多模态大型语言模型 (MLLMs) 在视觉问答评测方面的认知和推理能力,我们提出了一个新的 CFMM(Counterfactual MultiModal)基准测试,以系统评估 MLLMs 的反事实推理能力,发现现有 MLLMs 往往更加倾向于相信所见而忽视问题中提到的反事实前提,因此导致了不准确的回答,同时也表明现有 MLLMs 在逼近人类智能方面仍有较大提升空间,我们还探索了通过在未来提升 MLLMs 在 CFMM 上的表现来发展具备先进智能的 MLLMs 的潜在途径。
Apr, 2024
本文探讨了大型语言模型(LLMs)的因果能力,证明它们在因果推理方面具有优越性能和独特的知识来源。同时,我们提供了技术来解释它们的鲁棒性,并认为 LLMs 可用作人类领域知识的代理以及降低因果分析中的人力成本。因此,LLMs 在推动因果研究、实践和采纳方面开辟了新的前沿。
Apr, 2023
文章提出了 CausaLM 框架,基于 fine-tuning 的 deep contextualized embedding models 通过辅助对抗性训练任务,学习给定概念的反事实表示,用于估计其对模型性能的真实因果效应。我们的方法的副产品是一种语言表示模型,可以减轻数据中固有的不良偏差。
May, 2020
提出了一种新颖的架构称为 “具有反事实分析的上下文感知推理增强框架”,通过将显式和隐式因果推理相结合,利用 ConceptNet 和反事实语句来提高因果推理和可解释性,进一步提供对因果关系的深度理解和促进可解释性。
Feb, 2024
大型语言模型在逻辑推理和符号推理等复杂场景中表现出色,但其在理解逻辑规则上存在限制,本文通过反事实方法探讨了大型语言模型的推理能力,强调了加强机制以确保其可靠的逻辑推理的需求。
Feb, 2024
本篇论文主要介绍了如何通过自监督后训练和上下文学习来增加逻辑知识,从而提高语言模型的逻辑推理能力,取得了比现有基线更好的效果。
May, 2023