胸部 X 射线报告生成的纵向数据和语义相似奖励
使用患者访问纪录的多模态数据,即先前的患者访问 X 线图像、报告,以填充电子医疗报告中的 “发现” 部分,该方法使用转换器模型和多模式融合模块,以优于先前方法的 F1 分数和 BLEU-4、METEOR 和 ROUGE-L 的结果进行训练。
Jun, 2023
放射学报告是医学扫描内容的详细文本描述。通过引入经过纵向表示学习和句子 - 解剖学丢弃的方法,我们提出了一种整合自动化报告系统的策略,以加快报告速度并实现解剖区域可控的报告生成。
Oct, 2023
提出了一种名为 TiBiX 的方法,利用时间信息实现双向 X 光和报告生成,通过考虑先前的扫描,解决了两个挑战性问题,同时在报告生成和图像生成方面实现了良好的性能。
Mar, 2024
该研究提出了一种新颖的多模态变压器网络,将胸部 X 光片(CXR)图像与相关的患者人口统计信息相结合,合成特定患者的放射学报告,并通过综合得出的语义文本嵌入和医学图像 - derived 视觉特征的变压器编码器 - 解码器网络,以提高报告生成的质量。
Nov, 2023
本篇论文提出了一种弱监督的对比损失方法,用于提高放射学报告生成的文本质量,实验结果表明该方法在两个公共基准数据集上在临床正确性和文本生成指标方面优于以前的工作。
Sep, 2021
提出了一种基于深度学习技术的生成式编码解码模型,通过对大量胸部 X 光图像进行预先训练并提取医疗概念,结合词级别的注意力机制,成功生成精准较为自然的放射学报告。
Jul, 2019
通过使用 RadGraph 奖励提出了一种基于胸透领域实体和实体关系的新方法,以进一步提高放射学报告的实际完成和正确性,该方法显着改善了放射学报告生成效果。
Oct, 2022
本论文介绍了一种新的检索型放射学报告生成模块 Contrastive X-Ray REport Match (X-REM),其使用语言 - 图像模型计算匹配分数以衡量胸部 X 射线图像和放射学报告的相似性,从而提高基于检索方法的放射学报告的生成效果,优于之前的方法。
Mar, 2023
通过结合结构化患者数据和非结构化临床记录,我们提出了一种新颖的多模态深度神经网络框架,用于生成描述医学图像结果的胸部 X 射线检查报告,并通过引入条件交叉多头注意力模块来融合这些异构数据模态,弥合视觉和文字数据之间的语义差距。与仅依赖图像的模型相比,实验证明通过使用附加模态可以显著改善结果,在 ROUGE-L 指标上达到了文献相关最高的性能。此外,我们采用了人工评估和临床语义相似度测量以及词重叠度指标来提高定量分析的深度。由经过认证的放射科医师进行的人工评估确认了该模型在识别高级结果方面的准确性,但也强调需要更多的改进以捕捉细微的细节和临床背景。
Nov, 2023