胸部疾病识别的多对一分布学习和K-最近邻平滑方法
本文介绍了一个新的胸部X光数据库,名为“ ChestX-ray8 ”,其中包括108948个患者的32,717个独特患者的前瞻性X光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的“阅读胸部X射线”(仅通过图像级标签训练)仍然是完全自动化的高精度CAD系统的艰巨任务。
May, 2017
本研究通过训练深度学习模型,提出了一种能够诊断14种疾病的级联深度神经网络,其表现优于基线并与其他已发布的方法竞争,探讨了针对ChestX-ray14数据集的训练DCNN的损失函数选取和使用级联建模标签依赖性以及提高深度学习模型准确性的问题。
Nov, 2017
本文提出了ChestNet模型,它将注意力机制融合到深度卷积神经网络中,以有效诊断胸部疾病,其结果表明,在使用官方病人方式分割的Chest X-ray 14数据集上,该模型优于其他无需额外训练数据使用的方法。
Jul, 2018
本文提出了一种基于弱监督深度学习框架的方法,该框架配备了压缩和激励块、多图传输和最大-最小池化,用于分类胸部疾病以及定位可疑病变区域,实验证明所提出的模型具有更好的性能。
Jul, 2018
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测14种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过200k的数据集上训练,该模型在5项病理学的验证集中实现了0.940的平均AUC分数,表现高于独立测试集中的其他三位医学专家,该方法在CheXpert排行榜上排名第一。
Nov, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文提出了一种用于Chest X-ray的多标签分类深度学习框架,通过领域和标签的权重独立二进制任务方法以及任务特定的生成对抗网络训练,处理多个数据集之间的差异性,提高了分类准确度。在三个数据集上实验,AUC达到了0.8349,表明本文方法在使用外部数据集来提高内部分类方面具有很高的效果。
Jun, 2020
本项目提出了一种基于DenseNet和GRADCAM的多标签胸透疾病诊断模型,能够在X线图像中准确检测出多种胸部病理,并实现了深度学习算法的模型可解释性。
Feb, 2022
通过深度学习技术,我们使用多种预训练的卷积神经网络 (CNN)、Transformer、混合 (CNN+Transformer) 模型和经典模型,在“ChestX-ray14”数据集上进行实验。最佳的单一模型是CoAtNet,其在接收器工作特性曲线下的面积(AUROC)为84.2%。通过将所有经过训练的模型的预测组合,使用加权平均集成方法,其中每个模型的权重是通过差分进化确定的,我们进一步提高了AUROC至85.4%,在该领域超越了其他最先进的方法。我们的研究结果表明,深度学习技术尤其是集成深度学习,有潜力提高从胸部X射线图像中自动诊断胸部疾病的准确性。
Nov, 2023
通过将DenseNet121卷积神经网络与自注意力机制相结合的SA-DenseNet121模型,可以在胸部X射线中识别多种胸部疾病,并在诊断工作流程中提供支持,改善效率并减少诊断错误。
Apr, 2024