通过大型语言模型 (LLMs) 从自然语言中推断因果关系,并借助成对查询对因果图进行扩展,初始分析在生物医学文摘的基准上进行,结果有希望且支持在因果推断中采用 LLMs,尤其是在科学文本庞大且因果陈述经常隐含的医学领域。
Dec, 2023
通过对开源大语言模型进行微调,我们提出了 LLM4Causal,它能够识别因果任务、执行相应的函数并解释其数值结果,同时我们还提出了一种数据生成过程,用于更可控的 GPT 提示,并提供了两个指令微调数据集:因果检索基准和因果解释基准。通过三个案例研究,我们展示了 LLM4Causal 能够为因果问题提供端到端的解决方案并提供易于理解的答案。数值研究还显示,它在给定查询时具有寻找正确因果任务的显著能力。
使用弱监督和微调大型语言模型(LLM)的方法,在几乎没有领域知识的情况下,能够在性能上显著优于传统的有限的标准数据的监督方法,利用基于提示的方法,LLM 生成弱标记数据来训练下游的 BERT 模型,然后将弱监督模型进一步在少量的标准数据上进行微调,通过评估发现该方法优于 out-of-the-box PubMedBERT 4.7% 至 47.9% 的 F1 得分。
Jun, 2024
通过 GraphPrompter 框架,将 Large Language Models(LLMs)与图形模态对齐,实现了 LLMs 在图相关任务中的重要性和效果。
Feb, 2024
因果推断在捕捉变量之间的因果关系方面显示出在增强自然语言处理模型的预测准确性、公平性、鲁棒性和解释性方面的潜力。生成大型语言模型在通过其先进的推理能力显著影响各种自然语言处理领域的同时,这篇综述从因果的角度对生成大型语言模型进行评估和改进,从而理解和提高生成大型语言模型的推理能力,解决公平性和安全性问题,提供解释支持,并处理多模态数据。与此同时,生成大型语言模型强大的推理能力可以推动因果推断领域的发展,帮助发现因果关系和因果效应估计。本综述旨在探索因果推断框架和生成大型语言模型之间的相互作用,强调它们共同潜力以进一步开发更高级、更公平的人工智能系统。
Mar, 2024
本论文评估了大型语言模型在辅助因果图发展方面的作用,在编码共同知识和经验的基础上,利用自动评分来识别潜在图中的边缘,以减轻因果路径捕获的繁琐流程,并探讨 LLL 对语义探测单词、语境和提示的敏感度。
Mar, 2023
本文探讨了大型语言模型(LLMs)的因果能力,证明它们在因果推理方面具有优越性能和独特的知识来源。同时,我们提供了技术来解释它们的鲁棒性,并认为 LLMs 可用作人类领域知识的代理以及降低因果分析中的人力成本。因此,LLMs 在推动因果研究、实践和采纳方面开辟了新的前沿。
Apr, 2023
本文研究了大型语言模型在生成因果图方面的能力,通过将条件独立性查询作为 LLM 的提示并与 PC 算法的答案结合,提出了一种基于统计启发的投票模式来改善性能,并发现因果推理可以用于对概率查询进行合理解释,从而证明了基于知识的因果推理可能成为一种补充数据驱动因果发现的工具。
基于因果分析的方法用于系统地分析大语言模型(LLMs)输入提示与生成代码之间的因果关系,研究结果展示了该技术在提供 LLMs 有效性方面的潜力,并帮助最终用户理解预测,同时提供改进 LLMs 生成代码质量的可操作见解。
Oct, 2023
使用生成性人工智能从因果图生成文本描述的能力得到了实证调查,发现相对于基于事实的图形,因果文本描述在零 - shot 设置下更难生成,但使用少量示例进行模型训练与通过大型策划数据集进行微调获得类似的性能。