从查询工具到因果架构:利用大型语言模型从数据中进行先进的因果发现
本文探讨了大型语言模型(LLMs)的因果能力,证明它们在因果推理方面具有优越性能和独特的知识来源。同时,我们提供了技术来解释它们的鲁棒性,并认为 LLMs 可用作人类领域知识的代理以及降低因果分析中的人力成本。因此,LLMs 在推动因果研究、实践和采纳方面开辟了新的前沿。
Apr, 2023
本文研究了大型语言模型在生成因果图方面的能力,通过将条件独立性查询作为 LLM 的提示并与 PC 算法的答案结合,提出了一种基于统计启发的投票模式来改善性能,并发现因果推理可以用于对概率查询进行合理解释,从而证明了基于知识的因果推理可能成为一种补充数据驱动因果发现的工具。
Jun, 2024
因果推断在捕捉变量之间的因果关系方面显示出在增强自然语言处理模型的预测准确性、公平性、鲁棒性和解释性方面的潜力。生成大型语言模型在通过其先进的推理能力显著影响各种自然语言处理领域的同时,这篇综述从因果的角度对生成大型语言模型进行评估和改进,从而理解和提高生成大型语言模型的推理能力,解决公平性和安全性问题,提供解释支持,并处理多模态数据。与此同时,生成大型语言模型强大的推理能力可以推动因果推断领域的发展,帮助发现因果关系和因果效应估计。本综述旨在探索因果推断框架和生成大型语言模型之间的相互作用,强调它们共同潜力以进一步开发更高级、更公平的人工智能系统。
Mar, 2024
整合专家提供的背景知识可以改善观测数据的因果结构发现,并且由于对比人工专家而言查询它们的成本较低,最近开始将大型语言模型(LLM)视为提供先验信息的来源。本研究首先提出了一组用于独立于下游算法评估 LLM 判断因果图发现的度量标准。其次,我们系统地研究了一组提示设计,使模型能够指定关于因果图结构的先验。最后,我们提出了一种将 LLM 先验整合到图发现算法中的通用方法,发现它们在常识基准和特别是用于评估边缘方向性时有助于提高性能。我们的研究突显了在该问题空间中使用 LLM 的潜力和局限性。
May, 2024
本文就 LLM(如 GPT4)在因果发现任务中的综合应用进行了全面的调查,系统地回顾和比较了现有的 LLM 利用方法,并强调了它们在推断因果结构中利用元数据和自然语言的创新使用。我们的分析揭示了 LLM 在增强传统 CD 方法和作为不完善专家方面的优势和潜力,同时也揭示了当前实践中存在的挑战和限制。此外,我们还确定了文献中的空白,并提出了旨在发挥 LLM 在因果研究中全部潜力的未来研究方向。据我们所知,这是第一次对 LLM 和 CD 之间的协同作用进行统一而详细的调查,为未来的进展奠定了基础。
Feb, 2024
通过对开源大语言模型进行微调,我们提出了 LLM4Causal,它能够识别因果任务、执行相应的函数并解释其数值结果,同时我们还提出了一种数据生成过程,用于更可控的 GPT 提示,并提供了两个指令微调数据集:因果检索基准和因果解释基准。通过三个案例研究,我们展示了 LLM4Causal 能够为因果问题提供端到端的解决方案并提供易于理解的答案。数值研究还显示,它在给定查询时具有寻找正确因果任务的显著能力。
Dec, 2023
本论文评估了大型语言模型在辅助因果图发展方面的作用,在编码共同知识和经验的基础上,利用自动评分来识别潜在图中的边缘,以减轻因果路径捕获的繁琐流程,并探讨 LLL 对语义探测单词、语境和提示的敏感度。
Mar, 2023
COAT utilizes large language models to extract potential causal factors from unstructured data and assists in uncovering underlying causal systems.
Feb, 2024
结合因果知识图谱和大型语言模型,我们研究在心理学中引入了一种开创性的计算假设生成方法。我们利用大型语言模型分析了 43312 篇心理学文章,提取了因果关系对。通过应用链接预测算法,我们生成了 130 个关注 “幸福” 的心理学假设,并与由博士学者构思的研究想法以及仅由大型语言模型生成的假设进行了比较。有趣的是,我们结合使用大型语言模型和因果图的方法在新颖性方面明显超过了仅使用大型语言模型生成的假设(t (59) = 3.34, p=0.007,和 t (59) = 4.32, p<0.001,分别)。通过深度语义分析,这种一致性得到了进一步的证实。我们的结果表明,结合大型语言模型和机器学习技术,如因果知识图谱,可以在心理学中实现自动化的发现,从广泛的文献中提取新颖的见解。这项工作处于心理学和人工智能的交叉点上,为心理学研究中基于数据的假设生成跨出了新的丰富范式。
Feb, 2024