如何驾驭胸部X光数据的长尾?
本文介绍了使用MIMIC-CXR数据集训练并评估深度卷积神经网络来识别多种常见胸部疾病的结果,提出了一种可以同时处理前后位胸透图像的新型DualNet体系结构,并通过与使用单独基准前位和侧位分类器进行比较来展示DualNet体系结构的性能提升。
Apr, 2018
该研究提出了一种基于深度卷积神经网络的监督式多标签分类框架,用于预测14种常见胸部疾病的风险,同时针对常见胸透数据集中不确定样本占据的显著比例,提出了标签平滑技术。在超过200k的数据集上训练,该模型在5项病理学的验证集中实现了0.940的平均AUC分数,表现高于独立测试集中的其他三位医学专家,该方法在CheXpert排行榜上排名第一。
Nov, 2019
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文提出了一种用于Chest X-ray的多标签分类深度学习框架,通过领域和标签的权重独立二进制任务方法以及任务特定的生成对抗网络训练,处理多个数据集之间的差异性,提高了分类准确度。在三个数据集上实验,AUC达到了0.8349,表明本文方法在使用外部数据集来提高内部分类方面具有很高的效果。
Jun, 2020
本文提出了一种新的针对嘈杂的多标签CXR学习的方法,该方法检测并平滑地重新标记数据集中的样本,然后使用它们来训练通用的多标签分类器,实验证明该方法在许多CXR多标签分类基准测试中具有最先进的准确性和鲁棒性。
Mar, 2022
本研究通过引入 CheXFusion,一个基于 transformer 的融合模块,结合多视图图像处理,通过自注意力和交叉注意力机制,高效聚合多视图特征并考虑标签的共现作用,进一步探索数据平衡和自训练方法以提高模型性能,在 MIMIC-CXR 测试集中取得了 0.372 mAP 的最先进结果,并在竞赛中获得第一名,突显了在医学图像分类中考虑多视图设置、类别不平衡和标签共同出现的重要性。
Aug, 2023
通过整合多种先进设计,例如数据增强、特征提取器、分类器设计、损失函数加权、外生数据补充等,以及简单的测试时数据增强和集成,我们的框架在 ICCV CVAMD 2023 CXR-LT 比赛的测试集上最终实现了 0.349 的 mAP,排名前五。
Aug, 2023
在医学图像识别中,我们提出了一个长尾多标签疾病分类的问题,并通过一个公开的挑战(CXR-LT)提供了一个大规模数据集来解决这个问题。我们总结了表现最好的解决方案的共同主题,并提出了对于长尾多标签医学图像分类的实用建议,最后,我们利用这些观察结果提出了基于视觉语言模型的少标签和零标签疾病分类的前进方向。
Oct, 2023
使用MAPLEZ方法,使用基于规则的系统从CXR报告中提取和增强发现标签,包括存在性、位置、严重程度以及放射科医生对发现的不确定性,并在分类监督中取得了显著的模型质量提升
Mar, 2024
本研究针对现有医学人工智能模型在不同临床环境中的泛化能力不足问题,提出了CXRBase,一个从未标记的胸部X光影像中学习通用表示的基础模型。通过自监督学习,CXRBase能够识别有意义的模式,并经过调优后在疾病检测中表现出色,显著提升模型性能,同时减轻专家的标注工作负担,推动胸部影像的广泛临床应用。
Oct, 2024