学习总结放射学发现
通过 fine-tuning 多语言 Transformer 模型,该研究实现了自动化生成多种语言的放射学报告总结,结果显示出与人工撰写总结相当甚至更好的临床可靠性。
Sep, 2023
病人交接和分诊是医疗保健中的两个基本问题。为了高效地与专科医生沟通并快速决策哪些患者需要最紧急的医疗,医生们经常需要费力地总结复杂的发现。在探索这些挑战的过程中,我们提出了一种模型(1),该模型具有最先进的放射学报告摘要性能,并采用一种新的医疗数据增强方法(2),还对模型的局限性和放射学知识增长进行了分析(3)。此外,我们还为基于 MIMIC CXR 数据集开发的未来模型提供了数据处理流程。我们最好的模型是一个经过微调的 BERT-to-BERT 编码器 - 解码器,具有 58.75/100 的 ROUGE-L F1 得分,其表现优于带有更复杂的注意机制的专用检查点。我们在本文中研究了这些方面。
May, 2024
本研究提出一种新的基于层级结构的放射学报告摘要方法,将提取性摘要分解为关键句和关键词的提取任务,并采用两步法的方式进行生成,实验结果显示此方法与传统单一或双一的实验方法相比,能够更准确地生成摘要,总体 F1 得分提高了 3-4%。
Mar, 2022
提出一种基于 Encoder-Decoder 框架且同时利用附加知识和原始结果的方法,利用图神经网络处理视频关系信息,采用对比学习方法强化关键词在结果中的表述,以提高放射学报告印象部分的准确性。
Apr, 2022
通过提出包含六种不同模态和解剖的基于 MIMIC-III 数据库的数据集,我们提出了一个新的简报总结系统,其胜过现有数据集上的以前可重现的研究。
Nov, 2022
本文提出了一种新颖的自动印象生成方法,其中从发现中构建词图以记录关键词及其关系,然后设计了一个词图引导的总结模型 (WGSum) 来生成印象。实验结果表明,我们的方法在两个数据集上取得了最先进的结果,这进一步证实了我们的方法的有效性和可行性。
Dec, 2021
本文提出了一种新的解决方案来增强放射学家的结论写作,重点在于,将放射学图像和检查结果组合在一起生成结论,主要包括解剖学增强多模态模型和对比学习模块,经过两个基准数据集的实验证明,该方法显著优于其他自动结论生成模型。
Oct, 2022
利用一种新的提示策略,结合少样本上下文学习,该论文引入了一种改进放射学报告摘要的方法,通过首先生成普通人摘要来规范关键观察,并使用医患交流启发的非专家通信技术简化复杂信息。我们在 MIMIC-CXR、CheXpert 和 MIMIC-III 数据集上评估了这种方法,并将其与 7B/8B 参数状态下的开源大型语言模型(LLMs),如 Meta-Llama-3-8B-Instruct,进行了比较。我们的结果表明,在摘要精确性和可访问性方面都取得了改进,特别是在领域外测试中,某些指标的改进高达 5%。
Jun, 2024
自动生成放射学报告的简明摘要可以减轻临床医生的手动负担,并提高报告的一致性。本研究解决了当前方法依赖领域特定资源和了解错误和失败模式的不足,并提出了一种领域无关的变长提取式摘要作为导向信号,进一步改进了自动摘要的效果,并发现自动摘要与放射学家的最大差异在于内容选取和错误分析,对未来研究提出了有希望的方向。
Jul, 2023
研究了 8 种大型语言模型对放射学报告印象进行总结的能力,使用 CT、PET-CT 和超声波报告构建零、一、三次扫描提示,并定义了五项人工评价指标以评估印象的语义,结果显示大型语言模型在完整性和正确性方面表现较好,但简洁性和真实性评分不高,并指出少量扫描提示可以提高模型的简洁性和真实性,但临床医师仍认为大型语言模型不能取代放射学家的总结能力。
Jun, 2024