通过知识种子引导大型语言模型的临床推理
借助基于提示的学习,通过 “推理感知” 的诊断框架实现了对临床推理进行理性化,并能够在时间和劳动资源上具有高效性,从而实现了对疾病诊断的临床推理。
Dec, 2023
GPT4 可以通过使用诊断推理提示模拟临床医生的常见临床推理过程,而不会损失诊断准确性,因此它可以为医生提供评估 LLMs 是否可信赖用于患者护理的手段。新的提示方法有潜力揭示 LLMs 的黑盒子,将它们推向在医学中安全有效使用的一步。
Aug, 2023
通过构建自然语言处理任务中的大型语言模型,研究了知识推理的细节和方法,并提出了一个全面的知识推理框架 Chain-of-Knowledge(CoK),通过基于知识图的规则挖掘生成数据集,并结合人类知识探索过程的试错机制来提高模型学习的效果。实验证明,CoK 不仅在知识推理上,还在一般推理基准中具有优异的效果。
Jun, 2024
使用大型语言模型(LLMs)自动化医疗任务,如临床记录、信息检索和决策支持。我们提出一种修改的 MedQA-USMLE 数据集,用于模拟真实的临床场景,并探索基于思维链(CoT)推理的主观响应生成,以获取正确的医疗问题答案。我们还利用回报训练机制和人类参与,开发了更好的对比学习策略,并通过增量推理的提示得出贪婪解码方法比其他策略更好的结论。
Mar, 2024
评估大型语言模型在干预作用下准确更新其对数据生成过程的知识的能力,以及对因果推断中不同因果图和变量类型的干预性推理的研究。研究结果表明,虽然 GPT-4 模型在预测干预效果方面表现出有希望的准确性,但它们对提示中的干扰因素仍然敏感。
Apr, 2024
本文综述了大型语言模型在推理方面的最新研究,包括提高它们的推理能力的方法、评估它们的推理能力的基准和方法,以及这一领域之前研究的发现和意义,旨在激发有意义的讨论和未来的研究。
Dec, 2022
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024
通过将思路链式提示(CoT)拓展到医学推理领域,我们提出了诊断推理 CoT(DR-CoT)。实证结果表明,通过仅向仅训练于一般文本语料库的大型语言模型提供两个 DR-CoT 实例来指导,诊断准确性提高了 15%。此外,在领域外情景中,该差距达到显著的 18%。我们的研究结果表明,大型语言模型中可以通过适当的提示引出专家知识推理。
Jul, 2023
我们提出了一个名为 ArgMed-Agents 的多代理框架,通过相互作用,使基于 LLM 的代理能够进行可解释的临床决策推理。该框架通过自我论证迭代和构建冲突关系的有向图,使 LLMs 能够模仿临床争辩推理的过程,并生成自主解释推理,从而提高复杂临床决策推理问题的准确性并增加用户的信心。
Mar, 2024
本文研究了大型语言模型在临床医学领域的应用,探讨了通过让模型能够访问外部医疗工具,以响应医生查询的方式来实现医疗指南和建议推荐的能力,并展示了在各种临床场景中显著提高事实准确性、有效性和安全性的结果。
Mar, 2023