提出了一种利用疾病定向检索框架以及事实一致性字幕生成器解决医学图像报告自动生成中的疾病区域强调、视觉和文本数据偏见、长文本生成等难题的方法。
Jul, 2023
提出了一种病变引导的可解释性小样本医学报告生成框架,该框架通过视觉和语义特征对齐学习见过的和新疾病类型之间的相关性,从而生成未在训练中观察到的疾病的报告。
Nov, 2022
提出了一种新颖的自动超声报告生成框架,利用无监督和监督学习方法相结合,从超声文本报告中提取潜在知识,并设计了全局语义比较机制,以生成更全面准确的医学报告。
Jun, 2024
本文介绍了使用预构建图嵌入模块(图卷积神经网络建模)来辅助放射图像报告生成的方法,该方法可以对多种疾病发现进行专门的特征学习并建立它们之间的关系,同时提出了用于医学图像报告的新的评估指标,并在公开数据集(IU-RR)上展示了该方法的优异性能。
Feb, 2020
本文提出了一个新的框架 AGFNet,通过动态融合全局和解剖区域特征来生成多粒度放射学报告,该方法可以充分利用放射学图像和文本的多粒度信息,从而帮助生成更精准的报告。
提出了一种基于深度学习技术的生成式编码解码模型,通过对大量胸部 X 光图像进行预先训练并提取医疗概念,结合词级别的注意力机制,成功生成精准较为自然的放射学报告。
Jul, 2019
深度学习在医学影像的报告生成方面的关键研究进展进行了综述,强调了基于任务特征的方法、视觉和文本信息的综合利用以及跨模态交互对于提高报告生成质量的重要性,并介绍了常用的基准数据集和评估指标,分析了不同方法的性能并展望了未来发展方向。
Nov, 2023
研究了医学影像的自动生成报告问题,提出了多任务学习框架、注意力机制和递归神经网络以解决标签预测、异常区域定位和长段落生成等难点问题,并在两个公共数据集上进行了验证。
Nov, 2017
通过使用场景图来丰富医学知识,本研究提出了一种基于场景图的放射学报告生成网络(SGRRG 网络),该网络能够生成区域级别的视觉特征,预测解剖属性,并利用自动生成的场景图,以实现端到端的医学知识提炼,并在报告生成方面胜过之前的最先进方法,并能更好地捕捉异常发现。
Mar, 2024
该论文提出了一种基于图像特征和医疗语言信息的 Auxiliary Signal-Guided Knowledge Encoder-Decoder (ASGK) 模型,用于解决医学报告生成中的一些问题,并在 CX-CHR 数据集和 COVID-19 CT 报告数据集上取得了良好效果。
Jun, 2020