自我合理化模型分析的假设驱动框架
这篇论文介绍了一个严格设计的框架,用于创建能够有效锚定知识并采用闭环推理过程的大型语言模型,以提升其进行深入分析的能力,同时解剖了该框架的组成部分对模型性能的贡献,从而为改进推理能力提供了理论保证。
Nov, 2023
大语言模型的自我合理化能力在受限环境下得到了探索,当前的语言模型不仅依赖特定注释数据,还经常对其输出进行解释,生成的解释具有人类解释的常见属性。通过对多领域训练数据集的输出进行分析,我们发现生成的解释表现出选择性和包含说明性元素,但不太主观或误导性,我们讨论了这些属性存在与缺失的原因和后果,特别是根据自我合理化系统的目标和用户群体,概述了正面和负面的影响。
Feb, 2024
使用大型语言模型(LLM)进行推理任务时,我们介绍了一种名为 Hypotheses-to-Theories(HtT)的框架,该框架学习了一个用于与 LLM 进行推理的规则库。通过实验,我们证明 HtT 能够显著提高现有的提示方法的准确性,并且所学习的规则也可迁移到不同的模型和相同问题的不同形式中。
Oct, 2023
结合因果知识图谱和大型语言模型,我们研究在心理学中引入了一种开创性的计算假设生成方法。我们利用大型语言模型分析了 43312 篇心理学文章,提取了因果关系对。通过应用链接预测算法,我们生成了 130 个关注 “幸福” 的心理学假设,并与由博士学者构思的研究想法以及仅由大型语言模型生成的假设进行了比较。有趣的是,我们结合使用大型语言模型和因果图的方法在新颖性方面明显超过了仅使用大型语言模型生成的假设(t (59) = 3.34, p=0.007,和 t (59) = 4.32, p<0.001,分别)。通过深度语义分析,这种一致性得到了进一步的证实。我们的结果表明,结合大型语言模型和机器学习技术,如因果知识图谱,可以在心理学中实现自动化的发现,从广泛的文献中提取新颖的见解。这项工作处于心理学和人工智能的交叉点上,为心理学研究中基于数据的假设生成跨出了新的丰富范式。
Feb, 2024
利用大型语言模型的独特能力,本文提出一种名为 Logic-Scaffolding 的框架,通过中间推理步骤结合方面解释和思维链提示的思想生成解释,以解决现有模型在零 - shot 解释上的困难。
Dec, 2023
本文提出了一种结合基于知识的 LLMs 因果分析和数据驱动因果结构学习的新框架,以构建因果结构学习的新范式,并介绍了一套广泛的提示组,以从给定变量中提取因果图,并评估 LLM 先前因果对从数据中恢复因果结构的影响
Jun, 2023
通过将大型语言模型(LLMs)与定理证明器(TPs)相结合,本文研究了自然语言解释的验证和改进,提出了一个名为 Explanation-Refiner 的神经符号框架,用于生成和形式化解释句子,并为自然语言推理(NLI)提供潜在的推理策略。同时,定理证明器用于提供解释逻辑有效性的形式保证,并针对改进提供反馈。展示了如何共同使用 Explanation-Refiner 来评估最先进的 LLMs 的解释推理、自动形式化和错误纠正机制,以及自动提高不同领域中复杂性不同的人工注释解释的质量。
May, 2024
通过产生多个抽象假设并将其转化为具体的 Python 程序,进而为大型语言模型提高归纳推理能力,并利用自动生成的摘要或人工筛选的候选集来过滤生成的程序,从而在归纳推理任务中实现更高的准确性。
Sep, 2023