ChestX-Det10:胸部 X 光检测数据集
本文介绍了一个新的胸部 X 光数据库,名为 “ChestX-ray8”,其中包括 108948 个患者的 32,717 个独特患者的前瞻性 X 光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的 “阅读胸部 X 射线”(仅通过图像级标签训练)仍然是完全自动化的高精度 CAD 系统的艰巨任务。
May, 2017
本研究介绍了一个包含超过 10 万张胸部 X 射线扫描的数据集,其中 18000 张图像被 17 名经验丰富的放射科医生手动标注,包括 22 个异常部位的局部标签和 6 个可疑疾病的全局标签,该数据集的发布将为胸部异常的检测和定位的机器学习算法的发展提供帮助。
Dec, 2020
本文介绍了一种基于位置感知的 Dense Networks(DNetLoc)的方法,结合高分辨率图像数据和异常的空间信息进行异常分类,并利用最大的公开数据集对其进行了评估。我们在 ChestX-Ray14 基准数据集上实现了最佳平均 AUC 分数,并在明确使用病理位置信息时取得了改进的 AUC 分数。
Mar, 2018
本文提出了一种基于弱监督深度学习框架的方法,该框架配备了压缩和激励块、多图传输和最大 - 最小池化,用于分类胸部疾病以及定位可疑病变区域,实验证明所提出的模型具有更好的性能。
Jul, 2018
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测 14 种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过 200k 的数据集上训练,该模型在 5 项病理学的验证集中实现了 0.940 的平均 AUC 分数,表现高于独立测试集中的其他三位医学专家,该方法在 CheXpert 排行榜上排名第一。
Nov, 2019
本项目提出了一种基于 DenseNet 和 GRADCAM 的多标签胸透疾病诊断模型,能够在 X 线图像中准确检测出多种胸部病理,并实现了深度学习算法的模型可解释性。
Feb, 2022
本文介绍了一个标记大规模、高分辨率的胸部 X 光数据集,用于自动探索医学图像和相关报告,并在报告中标记了 174 个不同的放射学发现,19 个不同的差异诊断和 104 个不同的解剖部位位置,这些标记数据可用于训练监督模型关于放射学图像的分析与识别。此数据集可在 http URL 下载。
Jan, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测 14 种常见胸部疾病和病灶的存在,通过对 UGCXR 数据集的训练,该模型取得了目前最高的 AUC 分数 0.940, 平均优于独立评审组中的 2.6 位放射科医生,表现优于目前 CheXpert 测试集上的其他分类器。
May, 2020
CheXpert 是一个包含 224,316 个患者的 65,240 个胸部 X 射线片的大型数据集,通过自动检测放射学报告中 14 个观察结果的存在来捕捉放射 X 线解释中固有的不确定性,并且利用不同的不确定性方法来训练卷积神经网络,将此数据集作为标准基准来评估胸部 X 射线解释模型的性能。
Jan, 2019
使用智能手机拍摄胸部 x 线照片并对其进行自动化解释需要可靠的算法。为了解决这个问题,我们介绍了一个基于 CheXpert 数据集的 CheXphoto 数据集,该数据集包含了智能手机拍摄的照片和经过合成变换的数字 x 线照片,旨在测试和提高深度学习算法对智能手机照片的鲁棒性。
Jul, 2020