使用复发视觉注意模型学习如何观察胸部 X 光片
本文介绍了一种利用深度学习模型进行图像内疾病检测和标注的方法,通过采用卷积神经网络和循环神经网络进行训练,可以有效提高图像注释结果的准确性。
Mar, 2016
本文研究了利用病人历史记录信息的 CNN 图像分类模型。模型使用了 Chest X-Ray 成像技术,利用机器学习算法进行自动评估,展示出使用病人历史记录等附加信息时分类模型的性能显著提高。
Oct, 2022
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测 14 种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过 200k 的数据集上训练,该模型在 5 项病理学的验证集中实现了 0.940 的平均 AUC 分数,表现高于独立测试集中的其他三位医学专家,该方法在 CheXpert 排行榜上排名第一。
Nov, 2019
本文用因果学方法构建了结构性因果模型 (SCM),利用反向门控调整选取肺部 X 光的有效视觉信息,去除混杂物对真实因果性学习的影响,实验结果表明,我们所提出的方法能够胜过开源 NIH ChestX-ray14 在分类性能方面。
May, 2023
本文回顾了使用深度学习对胸部 X 射线摄影进行分析的所有研究,并对图像级预测(分类和回归)、分割、定位、图像生成和领域自适应的工作进行了分类。同时详细介绍了商业应用,并提供了关于现有技术水平和未来潜在方向的全面讨论。
Mar, 2021
通过将 DenseNet121 卷积神经网络与自注意力机制相结合的 SA-DenseNet121 模型,可以在胸部 X 射线中识别多种胸部疾病,并在诊断工作流程中提供支持,改善效率并减少诊断错误。
Apr, 2024
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测 14 种常见胸部疾病和病灶的存在,通过对 UGCXR 数据集的训练,该模型取得了目前最高的 AUC 分数 0.940, 平均优于独立评审组中的 2.6 位放射科医生,表现优于目前 CheXpert 测试集上的其他分类器。
May, 2020
为了更好地描述胸部 X 光图像中的异常区域以提供诊断的准确性,本研究提出了一种对比注意力模型,将其应用于已有模型可以提高性能。该模型可帮助现有模型更好地关注异常区域,提供更准确的诊断描述,并在公共数据集上取得了最先进的结果。
Jun, 2021
本文介绍了一个新的胸部 X 光数据库,名为 “ChestX-ray8”,其中包括 108948 个患者的 32,717 个独特患者的前瞻性 X 光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的 “阅读胸部 X 射线”(仅通过图像级标签训练)仍然是完全自动化的高精度 CAD 系统的艰巨任务。
May, 2017
本研究提出了一种自监督深度神经网络,在未标记的胸部 X 射线数据集上进行预训练,并将学到的表示迁移到下游任务 —— 呼吸系统疾病的分类。在四个公共数据集上获得了有竞争力的结果,而不需要大量标记的训练数据。
Mar, 2021