HydraViT:自适应多支路Transformer用于胸部X光图像的多标签疾病分类
本文介绍了一个新的胸部X光数据库,名为“ ChestX-ray8 ”,其中包括108948个患者的32,717个独特患者的前瞻性X光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的“阅读胸部X射线”(仅通过图像级标签训练)仍然是完全自动化的高精度CAD系统的艰巨任务。
May, 2017
本文介绍了使用MIMIC-CXR数据集训练并评估深度卷积神经网络来识别多种常见胸部疾病的结果,提出了一种可以同时处理前后位胸透图像的新型DualNet体系结构,并通过与使用单独基准前位和侧位分类器进行比较来展示DualNet体系结构的性能提升。
Apr, 2018
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测14种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过200k的数据集上训练,该模型在5项病理学的验证集中实现了0.940的平均AUC分数,表现高于独立测试集中的其他三位医学专家,该方法在CheXpert排行榜上排名第一。
Nov, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文介绍了Chest X-rays疾病识别与深度学习技术中使用的many-to-one distribution learning和K-nearest neighbor smoothing方法,通过对现有的公共数据集进行测试,结果表明该模型在疾病识别方面的表现优于现有的最先进方法。
Feb, 2021
本文提出了一种能够同时预测CXR图像中多个已见与未见疾病的多标签广义零样学习(CXR-ML-GZSL)网络,借助一个丰富的医学文本语料库提取的语义向量指导图像表示的学习,该网络在NIH Chest X-ray数据集上的实验表明其能够优于两个强基线方法。
Jul, 2021
使用不同的卷积神经网络和 Transformer 方法以及广泛的数据增强技术,在三个医学图像数据集上比较了它们的表现,并将视觉 Transformer 模型与其他先进的预训练 CNN 网络进行了评估和比较,在分类不同的解剖结构、所见和异常方面,我们的 Transformer 模型优于或更有效,比 CNN 基于的方法有所改进,建议将其用作算法开发的新基准算法。
Apr, 2023
通过深度学习技术,我们使用多种预训练的卷积神经网络 (CNN)、Transformer、混合 (CNN+Transformer) 模型和经典模型,在“ChestX-ray14”数据集上进行实验。最佳的单一模型是CoAtNet,其在接收器工作特性曲线下的面积(AUROC)为84.2%。通过将所有经过训练的模型的预测组合,使用加权平均集成方法,其中每个模型的权重是通过差分进化确定的,我们进一步提高了AUROC至85.4%,在该领域超越了其他最先进的方法。我们的研究结果表明,深度学习技术尤其是集成深度学习,有潜力提高从胸部X射线图像中自动诊断胸部疾病的准确性。
Nov, 2023
使用大规模语言模型和Transformer架构,基于ViT模型,在多标签分类任务中对胸部X射线图像进行准确的肺部疾病诊断。
May, 2024