CheXNet: 深度学习实现胸部X光片放射学级别的肺炎检测
本文介绍了一个新的胸部X光数据库,名为“ ChestX-ray8 ”,其中包括108948个患者的32,717个独特患者的前瞻性X光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的“阅读胸部X射线”(仅通过图像级标签训练)仍然是完全自动化的高精度CAD系统的艰巨任务。
May, 2017
本文介绍了使用MIMIC-CXR数据集训练并评估深度卷积神经网络来识别多种常见胸部疾病的结果,提出了一种可以同时处理前后位胸透图像的新型DualNet体系结构,并通过与使用单独基准前位和侧位分类器进行比较来展示DualNet体系结构的性能提升。
Apr, 2018
本文提出了ChestNet模型,它将注意力机制融合到深度卷积神经网络中,以有效诊断胸部疾病,其结果表明,在使用官方病人方式分割的Chest X-ray 14数据集上,该模型优于其他无需额外训练数据使用的方法。
Jul, 2018
CheXpert是一个包含224,316个患者的65,240个胸部X射线片的大型数据集,通过自动检测放射学报告中14个观察结果的存在来捕捉放射X线解释中固有的不确定性,并且利用不同的不确定性方法来训练卷积神经网络,将此数据集作为标准基准来评估胸部X射线解释模型的性能。
Jan, 2019
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测14种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过200k的数据集上训练,该模型在5项病理学的验证集中实现了0.940的平均AUC分数,表现高于独立测试集中的其他三位医学专家,该方法在CheXpert排行榜上排名第一。
Nov, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文研究了预训练模型在胸透解释方面的应用,通过对16种不同的卷积神经网络评估它们的迁移学习效果和参数效率,发现ImageNet性能和CheXpert性能之间不存在关系,而ImageNet预训练可以提高胸透解释的性能,并通过截取最后一层的方法使模型可节省3.25倍的参数而不影响性能。
Jan, 2021
本研究通过医学图像分析提出机器学习技术,利用胸部X光片图像预测肺炎,研究发现DenseNet121模型在Pneumonia检测中表现优于其他模型,达到99.58%的准确率,该研究展示了机器学习在精确检测肺炎中的重要性并为防止肺炎传播提供了技术支持。
Aug, 2023
CheX-nomaly模型通过对比学习方法和病变框解关联来显著提高胸部异常定位模型的泛化能力,并引入新的损失技术来增强U-net模型在边界框分割上的性能,从而为胸部疾病诊断的精确性提供了有前景的解决方案,特别关注减少医疗保健中视觉错误的数量。
Nov, 2023
通过使用胸片X光图像,开发了一种计算机辅助诊断系统以自动检测肺炎,该系统使用DenseNet-121和ResNet50作为二元分类(肺炎和正常)和多分类(细菌性肺炎,病毒性肺炎和正常)任务的主干,并实现了一种名为Fuzzy Channel Selective Spatial Attention Module(FCSSAM)的通道特定空间注意机制,用于突出显示相关通道的特定空间区域,同时通过主干提取的特征去除无关通道。该方法在公开可用的胸片X光数据集上进行了评估,使用二元和多分类设置,准确率分别为97.15%和79.79%,结果优于最先进的方法。
Jun, 2024