寻找意识到的胸部 X 光机器自动报告的解剖标记
本文提出了一种多标签胸部 X 光分类模型,能够准确分类图像发现,同时将发现位置定位到正确的解剖区域。该模型包括两个模块 - 检测模块和解剖依赖模块,并采用图卷积网络实现解剖部位之间的有关系学习。实验结果表明,与现有的多标签胸部 X 射线图像分类方法相比,该方法是有效且能够提供精确的位置信息。
May, 2021
放射学报告是医学扫描内容的详细文本描述。通过引入经过纵向表示学习和句子 - 解剖学丢弃的方法,我们提出了一种整合自动化报告系统的策略,以加快报告速度并实现解剖区域可控的报告生成。
Oct, 2023
该论文提出了一种基于交叉模态检索的自动医学图像报告生成方法,该方法可以从报告中识别异常发现,并将它们与无监督聚类和最小规则分组,通过使用提出的有条件构建的视觉 - 语义嵌入进行图像和小粒度异常发现对齐,其能够更好地检索异常发现并在临床正确性和文本生成度量方面优于现有的生成模型。
Oct, 2020
通过一种具有领域知识的自动生成算法和深度学习网络,对于胸部 X 光片的影像可实现自动标记并生成描述性报告,其精度优于现有的状态评价指标,如先前的自动化方法无法准确检测广泛的放射学发现。
Jul, 2020
该研究提出了一种基于深度学习自然语言处理的方法,通过从放射学报告中提取空间信息,包括放射学发现、解剖位置、可能诊断以及相关避免使用术语等,从而为诊断提供详细信息。
Aug, 2019
本文提出了一个可以考虑到临床精度的全自动胸部 X 光辐射学报告生成系统,利用计算机视觉和自然语言生成的高级方法来生成可读的报告,重点关注临床领域的细微差别,并通过强化学习来微调该系统。
Apr, 2019
用预训练的大型语言模型进行指导的方法可以生成基于解剖学和临床提示的结构化胸部 X 射线报告,以实现医疗报告的自动化生成和临床的交互性。
Apr, 2024
本研究基于自动编码训练出一种新的深度学习神经网络,能够保留解剖结构和空间位置信息,通过对胸部 X 光片的异常评估,实现精确定位和分类,相较现有方法有了显著提升。
Apr, 2022
本文介绍了一种基于位置感知的 Dense Networks(DNetLoc)的方法,结合高分辨率图像数据和异常的空间信息进行异常分类,并利用最大的公开数据集对其进行了评估。我们在 ChestX-Ray14 基准数据集上实现了最佳平均 AUC 分数,并在明确使用病理位置信息时取得了改进的 AUC 分数。
Mar, 2018