MAIRA-2: 基于现实的放射学报告生成
本研究提出了两种方法来消除放射学报告中引用先前报告的问题,一种是基于GPT-3的few-shot方法来重写没有引用先前报告的医疗报告,另一种是基于BioBERT的标记分类方法来直接删除引用先前报告的单词。研究者们认为在这些方法的基础上,CXR-ReDonE模型能够更好地生成放射学报告,进而在临床管道中得到更好的应用。
Sep, 2022
本研究提出了一种基于区域引导的报告生成模型,该模型能够检测解剖区域并生成具有人类可读性和可解释性的报告,通过额外的交互能力和更高的透明度和可解释性,扩展了新的临床应用案例。实验结果表明,该方法在报告生成方面具有非常出色的性能,并在交互性能方面表现突出。
Apr, 2023
本研究提出了一种基于自动医学图像解释的生成式语言模型的方法,用于从胸部X线图像中检测异常区域并生成相应文本,以降低放射科医生在撰写或叙述发现结果方面的工作量。
Jun, 2023
放射学报告是医学扫描内容的详细文本描述。通过引入经过纵向表示学习和句子 - 解剖学丢弃的方法,我们提出了一种整合自动化报告系统的策略,以加快报告速度并实现解剖区域可控的报告生成。
Oct, 2023
我们提出了一种放射学特定的多模态模型,用于从胸部 X 线片 (CXR) 生成放射学报告。我们的工作基于这样一个观点,即大型语言模型可以通过与预训练的视觉编码器对齐来具备多模态能力。在自然图像上,这已被证明可以使多模态模型具有图像理解和描述能力。我们提出的模型 (MAIRA-1) 结合了一个特定于 CXR 的图像编码器和一个基于 Vicuna-7B 的精调大型语言模型,以及基于文本的数据增强方法,以产生具有最先进质量的报告。具体而言,MAIRA-1 在与放射科医生对齐的 RadCliQ 指标和所有考虑的词汇指标上均有显著提高。对模型输出进行手动审核显示出生成报告的流畅性和准确性,同时揭示了现有评估方法未捕捉到的故障模式。更多信息和资源可在项目网站中找到:this https URL。
Nov, 2023
放射学报告是现代医学的重要组成部分,自动化报告生成和AI生成的报告对放射学家和临床决策具有潜在的帮助,但面临着质量评估和医生参与的挑战。本研究展示了放射科医生与AI系统进行合作的潜力以及AI生成报告与专家撰写报告的比较结果。
Nov, 2023
用预训练的大型语言模型进行指导的方法可以生成基于解剖学和临床提示的结构化胸部X射线报告,以实现医疗报告的自动化生成和临床的交互性。
Apr, 2024
尽管现有方法经常会在基于文本的报告中凭空想象细节,而不能准确反映图像内容,但《Radiology Report Generation(R2Gen)》展示了多模态大型语言模型(MLLMs)如何自动化生成准确和连贯的放射学报告。为了缓解这个问题,我们引入了一种新颖的策略SERPENT-VLM,将自我完善的机制集成到MLLM框架中,通过利用生成的放射学文本的上下文表示和汇总图像表示之间的相似性,在标准因果语言建模目标的基础上采用独特的自监督损失来完善图像-文本表示,从而使模型能够通过给定图像和生成文本之间的动态交互来审视和对齐生成的文本,从而减少幻觉并持续增强细微的报告生成能力。SERPENT-VLM在IU X-ray和Radiology Objects in COntext(ROCO)数据集上优于现有的基线方法,如LLaVA-Med、BiomedGPT等,并且证明在嘈杂的图像环境中具有稳健性。定性案例研究强调了MLLM框架在R2Gen中向更复杂方向发展的重要进展,为医学成像领域的自监督完善研究打开了新的研究路径。
Apr, 2024
通过引入一个以外行人术语为基础的数据集、评估和训练框架来系统地改进放射学报告生成(RRG),以解决现有用于评估RRG的词汇基准度量方法(如BLEU)的问题,该方法的高性能可能只是一个幻觉。我们提出了一个基于语义的评估方法,并证明其可以缓解BLEU得分的虚高问题,为RRG提供更公平的评估。我们还展示了在外行人术语数据集上训练可以促使模型关注报告的语义,而不是过度拟合报告模板。
Jun, 2024
本研究解决了当前缺乏用于训练基于图像的放射学报告生成模型的手动注释胸部X射线数据集的问题。提出的PadChest-GR数据集包含4,555个双语胸部X射线研究和详细的临床相关发现本地化注释,为放射学模型的训练和评估提供了重要资源。其显著发现是PadChest-GR是首个专门为放射学报告生成模型设计的手动整理数据集。
Nov, 2024