MedEdit:应用外部知识库进行医学问答的模型编辑
近年来,大型语言模型(LLMs)在大文本语料库的预训练过程中展示了令人印象深刻的知识编码能力。本研究通过构建一个新的基于系统评述的数据集,评估了六种 LLMs(如 GPT 和 Mixtral)在医学知识回忆方面的能力,并揭示了此任务的复杂性。
Jun, 2024
提出了两项模型编辑研究并在医学领域进行了验证,同时观察到当前模型编辑方法在医学知识的专业化和复杂性方面存在困难。因此,提出了一种用于医学模型编辑的新型分层可扩展适配器策略 MedLaSA。通过因果追踪来确定神经元中知识的准确位置,并在 LLMs 的密集层引入可扩展适配器,这些适配器基于相应的特定知识分配缩放值。在医疗 LLMs 上进行的大量实验证明了 MedLaSA 的编辑效率,且不影响未编辑的无关知识。
Feb, 2024
本研究通过比较一般性和专用于医学问答的精简语言模型的性能,旨在填补这方面的空白,并评估不同语言模型家族的性能,以探讨这些模型在医学问答领域的可靠性、比较性能和有效性,从而为不同语言模型在医学领域的特定应用提供有价值的见解。
Jan, 2024
为了解决大型语言模型(LLM)在医学领域中知识局限导致产生虚假医学事实的困境,本研究提出了知识调整的方法,利用结构化的医学知识库帮助 LLMs 有效掌握领域知识,从而实现可靠的回答生成。通过引入基于医学知识库构建的中文医学知识问答数据集 cMedKnowQA,实验结果表明,经过 cMedKnowQA 知识调整的 LLMs 在回答生成上表现出更高的准确性,为 LLMs 的领域适应提供了可靠的新途径。
Sep, 2023
Med-PaLM 2 combines improvements in Large Language Models, medical domain fine-tuning, and novel ensemble refinement approaches to achieve a state-of-the-art performance approaching or exceeding physician-level performance in medical question answering.
May, 2023
本研究通过将预训练的通用大型语言模型精细调整为医学领域专家,并结合多种优化方法,包括注入通用医学知识、医学领域指导微调和特定医学任务适应性调整,成功提升了在医学领域的推理和应答能力。
Dec, 2023
大型语言模型 (Large Language Models) 在理解和生成与人类交流非常相似的文本方面表现出非凡的能力。然而,由于其广泛的参数化,训练过程中存在重大的计算需求限制。这种挑战由于世界的动态性而进一步加剧,需要经常更新 LLM 以纠正过时的信息或整合新知识,从而确保它们持续具有相关性。近年来,对于即时修改模型的高效轻量级方法引起了越来越多的关注。本文首先定义了知识编辑问题,然后提供了对最前沿方法的全面回顾。在教育和认知研究理论的启发下,我们提出了一个统一的分类准则,将知识编辑方法分为三类:利用外部知识、将知识合并到模型中以及编辑内在知识。此外,我们引入了一个新的基准 KnowEdit,以对代表性的知识编辑方法进行综合实证评估。此外,我们对知识定位进行了深入分析,从而更深入地了解 LLM 固有的知识结构。最后,我们讨论了知识编辑的几个潜在应用,并概述了它的广泛而有影响力的意义。
Jan, 2024
利用 EREN(通过阅读笔记编辑模型)提出方法来提高大型语言模型的可伸缩性和鲁棒性,通过正确响应语法相似但语义无关的输入以及从多个修改中整合知识,优于现有技术。
Mar, 2024
介绍了 Dr. LLaMA,这是一种通过使用大型语言模型进行生成式数据增强来改善小型语言模型的方法,主要关注医学问答任务和 PubMedQA 数据集。研究表明,LLMs 可以有效地改善和多样化问题 - 答案对,从而在微调后使得规模更小的模型获得更好的领域特定 QA 数据集性能。该研究特别强调了在领域特定的问答任务中使用 LLMS 所面临的挑战,并建议了解决这些限制的潜在研究方向,旨在创建更高效、更有能力的专门应用模型。
May, 2023
该论文介绍了 MedExpQA,一个基于医学考试的多语言基准,用于评估大型语言模型在医学问答中的表现,并指出目前大型语言模型的性能还有很大的改进空间,特别是对于英语以外的语言。同时,该研究还强调了获取和整合可用的医学知识对于医学问答的后续评估结果具有困难,并呼吁进一步开发其他语言的基准。
Apr, 2024