- 医生的 LLM:利用医学 LLM 来协助医生,而不是取代他们
通过构建医学助手和医生之间的合作,我们建立了一个医学数据集 DoctorFLAN,用于支持医生的全部工作流程,并通过构建医生定向场景的评估来验证该数据集的有效性。
- Aqulia-Med LLM:全过程开源医疗语言模型的开创性
提出 Aquila-Med:一种基于 Aquila 的双语医学 LLM,通过持续预训练、监督微调以及强化学习从人类反馈中进行训练,解决医学领域中开源社区性能的问题,并在单轮对话、多轮对话和医学多项选择题方面取得显著成果。
- 生物医学基准中的药物名称对语言模型的出乎意料的脆弱性
医学知识的上下文相关性需要在各种自然语言表达的语义等效短语中保持连贯的推理,尤其对于药物名称,患者通常使用品牌名称如 Advil 或 Tylenol 而非其通用等效物。在本研究中,我们创建了一个新的鲁棒性数据集 RABBITS,通过医生专家 - MedExQA:具备多重解释的医学问答基准
本研究介绍了 MedExQA,这是一个用于评估大型语言模型对医学知识的理解能力的新型基准,通过构建涵盖五个不同医学专业的数据集,并且为每个问题 - 答案对提供多个解释,填补了当前医学问答基准的一个重要空白,即缺乏模型生成细致医学解释的全面评 - IJCAIMultifacetEval: 探索 LLM 在掌握医学知识中的多方面评估
目前的大型语言模型在实际应用于医学领域中的任务时,存在显著的实际效果与报道性能之间的差距,这篇论文通过多方面的评估方法发现当前大型语言模型在医学知识的掌握方面缺乏深度、准确性和全面性,因此尚不适用于真实医学任务。
- 面向知识注入的自动疾病诊断助手
通过医患互动,将医学知识与病症识别相结合,建立一种诊断助手,显著提高疾病识别的能力,并整合视觉感知信息以增强诊断助手的功能。
- ACLMEDIQA-CORR 2024 中 PromptMind 团队:通过错误分类和 LLM 集合改进临床文本纠正
该论文介绍了我们在 MEDIQA-CORR 共享任务中的方法,该任务涉及医学专业人员策划的临床笔记中的错误检测和更正。我们的工作旨在评估在包含事实和不可靠信息的海量互联网数据上训练的大型语言模型(LLM)的能力。我们建议综合处理所有子任务, - DeViDe:基于分面的医学知识,以提升医学视觉 - 语言预训练
在胸片 X 光的视觉语言预训练方面取得了显著进展,主要通过利用配对的放射照片和放射学报告。为了解决医学知识编码的挑战,我们提出了一种新颖的基于 Transformer 的方法 DeViDe,它利用来自开放网络的放射照片描述。DeViDe 将 - 利用大型语言模型在社交媒体上进行抑郁症检测
通过分析社交媒体上用户的历史帖子,我们提出了一种名为 DORIS 的新型抑郁症检测系统,结合医学知识和大型语言模型的最新进展,在早期检测和干预上具有重要作用,并且该系统通过结合传统分类器和大型语言模型,融合医学知识引导的特征,实现了高准确性 - XCoOp:基于概念引导的上下文优化的计算机辅助诊断可解释式提示学习
利用强大的视觉 - 语言模型(VLM)来完成各种下游任务已引起越来越多的关注。我们提出了一种新颖的可解释提示学习框架,通过在多个粒度上对医学知识、可以学习的提示和临床概念驱动的提示的语义进行对齐,来解决这个问题,并为提示提供了视觉和文本解释 - MedInsight:基于大型语言模型的多源语境增强框架用于生成针对患者的医疗回复
提出了 MedInsight,它是一种新颖的检索增强框架,通过从多个来源中提取相关背景信息,将 LLM 输入(提示)与上下文相关的重要细节集成在一起,为医疗保健应用生成丰富的、个性化的患者特定响应。
- MedKP: 医疗对话中的知识增强和临床路径编码
通过结合医学知识图谱和内部临床路径编码,本研究提出了医学对话增强与临床路径编码(MedKP)框架,通过综合评估指标在两个大规模实际在线医学咨询数据集上的实验证明,MedKP 超过了多个基准系统,减少了产生幻觉的情况,达到了新的最先进水平,进 - 场景图辅助放射学报告生成
通过使用场景图来丰富医学知识,本研究提出了一种基于场景图的放射学报告生成网络(SGRRG 网络),该网络能够生成区域级别的视觉特征,预测解剖属性,并利用自动生成的场景图,以实现端到端的医学知识提炼,并在报告生成方面胜过之前的最先进方法,并能 - 通过直观 - 分析差异诊断进行医疗对话生成
医学对话系统应用了 Intuitive-then-Analytic Differential Diagnosis (IADDx) 方法进行差异诊断,并通过检索顺联结合图增强的分析过程提供疗效理论和指导。该研究验证了该方法的有效性,并展示了其 - 从初学者到专家:将医学知识建模到通用 LLM 中
本研究通过将预训练的通用大型语言模型精细调整为医学领域专家,并结合多种优化方法,包括注入通用医学知识、医学领域指导微调和特定医学任务适应性调整,成功提升了在医学领域的推理和应答能力。
- MEDITRON-70B:用于大型语言模型的医学预训练扩展
通过发布具有 7B 和 70B 参数的开源 LLMs 套件 MEDITRON,我们改进了对大规模医学 LLMs 的访问,并在多个医学测试中显示出显著的性能提升。与闭源 LLMs 相比,MEDITRON-70B 在 GPT-3.5 和 Med - EMNLPFaMeSumm:医学摘要准确性的研究与改进
我们研究了医学文本概述的忠实性,发现当前的概述模型常常会产生不忠实的输出,因此我们引入了 FAMESUMM 框架来改进忠实性,并通过对医学知识进行预训练模型微调,使用对比学习的方式提高医学术语的忠实生成,实验结果和医生的人工评估都证明了 F - 基于 ModelOps 的智能医疗知识提取框架
基于 ModelOps 的智能医学知识提取框架,通过多层回调函数的数据集抽象机制、可重用的模型训练、监控和管理机制,以及基于数据集相似性的模型推荐方法,提供了低代码系统,方便医学研究者开发模型,并简化了非人工智能专家如医生对模型的访问。
- 通过期望最大化推理生成医疗问答中的解释
提出了一种新的方法来为医疗问答系统预测的答案生成自然语言解释,通过提取医学教科书中的知识来增强解释的质量,实验证明了该方法在处理文本证据时的有效性。
- 促进学习是否有利于放射学报告生成?
本文介绍了 PromptRRG,一种利用提示学习激活预训练模型并结合先前知识的辅助放射学报告生成方法,并通过对 Prompt 设计的研究将其分为常见提示、领域特定提示和疾病丰富提示等级。在最大的放射学报告生成基准 MIMIC-CXR 上进行