通过轻量级领域自适应大型语言模型实现放射学报告摘要
利用一种新的提示策略,结合少样本上下文学习,该论文引入了一种改进放射学报告摘要的方法,通过首先生成普通人摘要来规范关键观察,并使用医患交流启发的非专家通信技术简化复杂信息。我们在 MIMIC-CXR、CheXpert 和 MIMIC-III 数据集上评估了这种方法,并将其与 7B/8B 参数状态下的开源大型语言模型(LLMs),如 Meta-Llama-3-8B-Instruct,进行了比较。我们的结果表明,在摘要精确性和可访问性方面都取得了改进,特别是在领域外测试中,某些指标的改进高达 5%。
Jun, 2024
本文提出了一个使用大规模医疗文本数据对指令调整的生成大语言模型进行领域自适应预训练的系统,以增强其医疗知识和特定任务的表现。该系统在零样本情况下在 IMPRESSIONS 生成任务上表现比其他预训练和微调方法更好,并在 BioNLP 2023 研讨会的 Radiology Report Summarization Task 1B 中排名第一。
Jun, 2023
在本研究中,我们采用八个大型语言模型,在六个数据集和四个不同的摘要任务(放射学报告、患者问题、进展记录和医生 - 患者对话)上应用领域适应方法,系统评估了它们的效果,而且展示出最佳适应的大型语言模型的摘要相较于人工摘要在完整性和正确性方面更可取。此外,我们还将传统的自然语言处理指标与医生评分进行了相关性分析,以提高对这些指标与医生喜好的理解。最终,我们的研究证明了大型语言模型在多个临床文本摘要任务中超越人工专家,这意味着将大型语言模型整合到临床工作流程中可以减轻文档负担,使临床医生能够更多关注个性化患者护理和其他医学中不可替代的人工环节。
Sep, 2023
利用生成性人工智能进行医学图像的放射学报告撰写可极大地减少了时间成本和错误率。本研究中,我们提出了一个简单而有效的两阶段微调方案,通过软性视觉提示将视觉特征与大型语言模型的文本嵌入空间对齐。我们的框架在没有领域特定预训练的情况下取得了最先进的性能,并对软性视觉提示和注意力机制进行了详细分析,为未来的研究方向提供了启示。
Dec, 2023
本文介绍了 RadLing 这一预训练模型,它使用了 500K 个放射学报告作为训练集,并针对放射学领域进行了微调,使其在细化调整任务中取得了与最先进结果相当的性能。本文的主要贡献在于知识感知遮蔽,这是一种通过遮蔽单词来注入知识的分类知识支持的预训练任务。此外,本文还介绍了一种知识库辅助的词汇扩展方法,以适应放射学领域的通用分词词汇。
Jun, 2023
该研究提出了 RadBARTsum,一种领域特定的、本体学支持的适应 BART 模型的放射学报告摘要方法。该方法包括两个主要步骤:1)使用一种新颖的实体屏蔽策略在大量放射学报告语料库上重新训练 BART 模型以提高生物医学领域知识学习,2)使用调查结果和背景部分进行模型微调以预测结论部分。实验采用不同的屏蔽策略进行,结果显示使用领域知识屏蔽的重新训练过程在各种设置下均能持续提高性能。该工作为放射学报告摘要提供了一种领域特定生成型语言模型,以及一种利用医学知识实现实体屏蔽语言模型的方法。所提出的方法展示了通过加深对放射学报告的临床知识理解来提高语言模型效率的一个有希望的方向。
Jun, 2024
通过 LoRA-based instruction-tuning 来提高日本医学问答任务的性能,在多项选择题的评估中发现其可以部分地将领域特定知识整合到大型语言模型中,较大模型效果更显著,并突出了将英语为中心的模型适应于日本应用的潜力,同时也强调了日本为中心的模型的局限性,这一举措标志着在不依赖外部服务的情况下,医疗机构可以对模型进行精细调整和操作的先驱性努力。
Oct, 2023
本文介绍了一个包含 LoRA 和结构化层剪枝的模型微调框架,用于对医学报告进行摘要提取,并且该框架可以通过微调少量参数和剪枝一部分 Transformer 层,加速了训练速度,减少 GPU 内存的使用,并且保持自由文本生成质量的同时,提高了模型的效率和效益。
May, 2023
本研究评估了基于 5 点 Deauville 评分预测的临床 18F‑氟脱氧葡萄糖 (FDG) PET/CT 报告的领域自适应技术在核医学中的价值,并发现该技术可提高大型语言模型解读核医学文本报告的性能。
Mar, 2023
通过 fine-tuning 多语言 Transformer 模型,该研究实现了自动化生成多种语言的放射学报告总结,结果显示出与人工撰写总结相当甚至更好的临床可靠性。
Sep, 2023