DRG-LLaMA:调整 LLaMA 模型以预测住院患者的诊断相关分组
本论文介绍了一种将大型语言模型(LLMs)的语言推理能力与本地训练的优势相结合的方法,以解决复杂的领域特定任务。通过从病理报告中提取结构化病情编码,作者演示了他们的方法。研究结果表明,基于 LLaMA 的模型在所有评估指标上明显优于 BERT 型模型,尤其在大型数据集上表现出色,为处理复杂的多标签任务提供了可能性。这项工作提出了一种有效的方法,利用 LLMs 在易于获得的硬件上执行领域特定任务,在需要复杂数据提取和分类的医学领域具有潜在应用。
Aug, 2023
介绍了 PMC-LLaMA, 一种在 4.8 百万篇生物医学论文上 fine-tuning 得到的语言模型,用于注入医学知识,提高在医学领域的性能,经过初步试验后在生物医学数据集上表现出更好的理解生物医学特定概念,在 QA 基准上表现出高性能。
Apr, 2023
在本研究中,我们展示了一个小型开源语言模型(LLMs)可以有效地从门诊患者 - 医生对话中生成高质量的临床笔记,通过包括持续预训练、监督微调和强化学习在内的综合的领域和任务特定的自适应过程。我们通过增强方法 DistillDirect,以 Gemini Pro 作为教师模型,在策略上进行了强化学习。我们的研究证明了训练较小、开源的 LLMs 以辅助临床文档编写的潜力和可行性,充分利用医疗机构对患者记录和领域专业知识的访问。
Apr, 2024
提出了 Dia-LLaMA 框架,通过引入诊断信息作为指导提示来为 CT 报告生成适应 LLaMA2-7B 的方法,通过提取视觉信息来适应高维 CT,并通过参考疾病原型记忆库提取额外诊断信息以突出异常性,并引入疾病感知注意力来实现模型对不同疾病的注意力调整。在胸部 CT 数据集上进行的实验表明,我们提出的方法在临床有效性性能和自然语言生成度量方面表现出超越往方法和达到最先进水平。代码将公开发布。
Mar, 2024
这项研究介绍了 Me LLaMA,这是一个医学领域的大型语言模型(LLM)家族,包括基础模型 Me LLaMA 13/70B 和增强聊天版本 Me LLaMA 13/70B-chat。通过在大型医学数据上进行持续预训练和指导调整,Me LLaMA 模型在医学任务上表现优于其他医学 LLMs,适用于医学人工智能应用。
Feb, 2024
这篇论文详细介绍了 DAEDRA 的构思、设计、训练和评估,DAEDRA 是一个用于通过被动报告从广泛和多样的受众中检测监管相关结果(死亡率、急诊就医和住院率)的大语言模型 (LLM)。在分析高度专业化的语料库时,子领域特定 LLM 仍然是获得更好结果的可行选项。
Feb, 2024
通过 LoRA-based instruction-tuning 来提高日本医学问答任务的性能,在多项选择题的评估中发现其可以部分地将领域特定知识整合到大型语言模型中,较大模型效果更显著,并突出了将英语为中心的模型适应于日本应用的潜力,同时也强调了日本为中心的模型的局限性,这一举措标志着在不依赖外部服务的情况下,医疗机构可以对模型进行精细调整和操作的先驱性努力。
Oct, 2023
Radiology-Llama2 是一个基于 Llama2 体系结构的大型语言模型,通过指令调整的过程在放射学领域达到了最先进的性能,它可以根据放射学检查结果生成连贯且临床有用的印象。
Aug, 2023
我们介绍了一种基于检索增强生成(RAG)- 大型语言模型(LLM)的临床决策支持系统(CDSS),用于安全药物处方。该模型通过提供与患者背景和机构指南相适应的相关处方错误警报来解决传统基于规则的 CDSS 的局限性。本研究评估了基于 LLM 的 CDSS 在识别各种医疗和外科病例中的药物错误方面的有效性,与人工专家小组进行对比。同时,研究还检验了临床医生对不同 CDSS 集成模式的偏好:初级药师、仅基于 LLM 的 CDSS 和两者的组合。
Jan, 2024
近期人工智能在医疗领域有了显著进展,本研究提出 RO-LLaMA,一个通用的大型语言模型,特为放射肿瘤学领域量身定制,能够在临床报告总结、放疗方案建议等任务中表现出卓越的性能,并且通过 CEFTune 技术进一步提高了模型的鲁棒性,同时保持了处理干净输入的能力,还将此概念创造性地转化为 LLM 驱动的分割框架 CESEG。实验结果表明,RO-LLaMA 在多中心队列数据集上展现了出色的性能和泛化能力。
Nov, 2023