基于多关系图学习的专家不确定性和严重程度感知胸部X光分类
CheXpert是一个包含224,316个患者的65,240个胸部X射线片的大型数据集,通过自动检测放射学报告中14个观察结果的存在来捕捉放射X线解释中固有的不确定性,并且利用不同的不确定性方法来训练卷积神经网络,将此数据集作为标准基准来评估胸部X射线解释模型的性能。
Jan, 2019
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测14种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过200k的数据集上训练,该模型在5项病理学的验证集中实现了0.940的平均AUC分数,表现高于独立测试集中的其他三位医学专家,该方法在CheXpert排行榜上排名第一。
Nov, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文提出了一种用于Chest X-ray的多标签分类深度学习框架,通过领域和标签的权重独立二进制任务方法以及任务特定的生成对抗网络训练,处理多个数据集之间的差异性,提高了分类准确度。在三个数据集上实验,AUC达到了0.8349,表明本文方法在使用外部数据集来提高内部分类方面具有很高的效果。
Jun, 2020
本文提出了一种能够同时预测CXR图像中多个已见与未见疾病的多标签广义零样学习(CXR-ML-GZSL)网络,借助一个丰富的医学文本语料库提取的语义向量指导图像表示的学习,该网络在NIH Chest X-ray数据集上的实验表明其能够优于两个强基线方法。
Jul, 2021
本文提出了一种新的针对嘈杂的多标签CXR学习的方法,该方法检测并平滑地重新标记数据集中的样本,然后使用它们来训练通用的多标签分类器,实验证明该方法在许多CXR多标签分类基准测试中具有最先进的准确性和鲁棒性。
Mar, 2022
在医学图像识别中,我们提出了一个长尾多标签疾病分类的问题,并通过一个公开的挑战(CXR-LT)提供了一个大规模数据集来解决这个问题。我们总结了表现最好的解决方案的共同主题,并提出了对于长尾多标签医学图像分类的实用建议,最后,我们利用这些观察结果提出了基于视觉语言模型的少标签和零标签疾病分类的前进方向。
Oct, 2023
通过创建融合了常见和罕见胸部疾病的新数据集“LTML-MIMIC-CXR”,我们提出了一种基准方法来解决胸部X光片中罕见疾病检测的问题,其中包括了自动标注修正的大型损失重新考虑策略和针对尾部类别负logit过抑制的自适应负正则化方法。我们在LTML-MIMIC-CXR上的评估显示出罕见疾病检测的显著进展,为稳健的计算机辅助诊断方法提供了基础,以达到在胸部X光片中识别一系列胸部疾病的平衡。
Nov, 2023
使用MAPLEZ方法,使用基于规则的系统从CXR报告中提取和增强发现标签,包括存在性、位置、严重程度以及放射科医生对发现的不确定性,并在分类监督中取得了显著的模型质量提升
Mar, 2024
本研究针对现有医学人工智能模型在不同临床环境中的泛化能力不足问题,提出了CXRBase,一个从未标记的胸部X光影像中学习通用表示的基础模型。通过自监督学习,CXRBase能够识别有意义的模式,并经过调优后在疾病检测中表现出色,显著提升模型性能,同时减轻专家的标注工作负担,推动胸部影像的广泛临床应用。
Oct, 2024