- 优化大型语言模型中的逻辑推理以促进法律应用
通过强化学习与逻辑反馈,加强语言模型在逻辑推理方面的能力,为处理复杂法律推理任务的大型语言模型的发展提供新的研究途径,并承认了语言与逻辑之间的基本联系。
- De-fine: 图像程序的分解和精化与自动反馈
通过引入定义 (De-fine) 的模型无关方法,将复杂任务分解为简单子任务并通过自动反馈优化程序,从而提高逻辑推理性能,在多个视觉任务中实现更准确、更健壮的程序,创造了该领域的新纪录。
- 深入探究大型语言模型在逻辑推理中的自我验证能力
这篇论文研究了大型语言模型在逻辑推理中的自我验证能力,主要关注其准确识别逻辑谬误的能力。通过对包含 232 种谬误的数据集进行实验,发现现有的大型语言模型在准确识别谬误的过程中可能存在困难,并可能不能保证自我验证方法的有效性。论文提出了对未 - LLM 是否是严格的逻辑推理者?通过对比逐步解码增强自然语言证明生成
通过引入先进的思维链接策略和分步证明生成对小规模语言模型进行微调,增强了逻辑推理能力,成功提升了语言模型完成复杂推理任务的效果。
- 语言模型可作为逻辑求解器
LoGiPT 是一种新颖的语言模型,通过直接模拟逻辑求解器的推理过程并严格遵守求解器的语法规则,绕过分析错误,并在竞争的语言模型上表现出优异的性能。
- 评估领先的大型语言模型在推理生物学问题中的潜力
该研究评估了领先的大型语言模型(LLMs),包括 GPT-4、GPT-3.5、PaLM2、Claude2 和 SenseNova 对概念生物学问题的回答能力。结果表明,GPT-4 在逻辑推理方面表现出色,并具备数据分析、假设生成和知识整合等 - 基于原子知识库的机器翻译的规则学习
机器学习模型,特别是语言模型,被应用于需要推理的各种任务。我们探索了 transformers 将自然语言中表达规则的句子翻译成逻辑规则的能力,以便进行可信的和受控制的逻辑推理。通过使用 DKET 数据集和基于 Atomic 知识库的语言到 - LINC: 将语言模型与一阶逻辑证明器相结合的神经符号化逻辑推理方法
通过使用神经符号计算来全面利用 LLMs 和符号化证明器,本文探索了以逻辑推理任务,特别是符合自然语言的任务为基础的解决方案。
- 利用逻辑推理和相关性评分进行检索增强型神经生成回应
使用概率逻辑编程推演引入逻辑事实,结合基于检索的语言模型和逻辑推理的知识生成响应的新方法,在任务导向的对话系统中提高了回应的准确性和流畅性。
- IJCAI大规模语言模型对于超领域逻辑推理任务的系统评估
大型语言模型在逻辑推理任务中的泛化性和鲁棒性评估及改善的研究。
- 大型语言模型逻辑推理的教学学习
通过对大型语言模型的研究,我们发现它们在逻辑推理方面存在缺陷,导致其在任务解决中产生反事实的答案。为了解决这个问题,我们提出了多种策略,赋予大型语言模型逻辑推理能力,从而使其能够在不同场景中生成更符合逻辑的答案。我们还通过构建一个综合数据集 - GLoRE:评估大型语言模型的逻辑推理能力
该篇研究论文主要介绍了大型语言模型的逻辑推理能力评估,提出了一个名为 GLoRE 的评估基准,包含 12 个数据集,通过实验证明了 ChatGPT 和 GPT-4 在逻辑推理方面的强大能力,并提出了改进方法,发布了数据集和评估程序以促进未来 - 使用 SATNet 学习可靠的逻辑规则
通过可区分性学习生成可解释和可验证的逻辑规则,该方法通过最大可满足性求解器(SATNet)学习可解释的逻辑规则,并引入验证技术进行验证,从而实现了逻辑推理和深度学习的交互。
- LogiGLUE: 逻辑推理能力的语言模型分析调查和基准评测
通过对最新进展的简要回顾,本文试图了解大型语言模型在逻辑推理方面的能力,包括逻辑推理数据集、任务以及利用大型语言模型进行推理的方法。通过构建基准测试集 LogiGLUE,并训练一个经过指令微调的语言模型 LogiT5,研究了单任务训练、多任 - 基于 EFO_k 的 CQA:超越集合操作的知识图谱复杂查询响应
为了回答知识图谱上的复杂查询,我们提出了一个综合框架,涵盖了存在性一阶查询的组合空间,并构建了一个 dataset 进行评估。我们的结果揭示了查询难度对结果的影响,并强调了现有数据集构建过程中的系统偏见对查询 - 回答方法的适当发展的重要性 - 使用算法解决逻辑谜题
该研究使用 Python 算法自动解决骑士和诡辩者的逻辑难题,并整合了逻辑推理框架,通过分析陈述来确定每个人的真实身份,并通过与已知解决方案和手动方法进行比较进行了全面测试。
- 反事实协作推理
本文研究了因果推理和逻辑推理在机器智能的应用下的关系,提出了 Counterfactual Collaborative Reasoning (CCR) 方法,通过进行反事实逻辑推理对数据进行增强,提高了模型性能和透明度。实验结果表明,CCR - ACL面向指标的逻辑预训练 (IDOL):用于逻辑推理
本文提出了一种易于理解但非常有效的进一步预训练任务,IDOL(InDicator-Oriented Logic Pre-training),通过 6 种逻辑指示符和一个逻辑丰富的数据集 LGP(LoGic Pre-training)在逻辑上 - 使用 NeuBAROCO 评估大型语言模型的三段论推理能力和类人偏见
本文研究当前的大型语言模型是否存在逻辑推理的偏见,探讨三种主要偏见类型,并介绍一种心理实验数据集 NeuBAROCO。通过分析数据集,发现当前的大型语言模型在涉及到这三种类型偏见的问题上表现欠佳。
- COLING通过链接话语单元和关键词建立层次推理链模型进行阅读理解
本研究提出了一种基于全面图网络的逻辑推理方法,在上下文和单词层面处理上下文,通过层次交互机制建模节点级关系和类型级关系,以提高阅读理解系统的解释能力和理解复杂逻辑关系的能力。