利用多实例学习无需本地注释的胸部 X 光关键结果定位
本文介绍了一个新的胸部X光数据库,名为“ ChestX-ray8 ”,其中包括108948个患者的32,717个独特患者的前瞻性X光图像 和使用自然语言处理从相关放射学报告中提取的八个疾病图像标签。作者展示了这些常见的胸部疾病可以通过弱监督的多标签图像分类和疾病定位框架进行检测甚至空间定位,并证明了这一点。尽管初始数量结果报告良好,但基于深度卷积神经网络的“阅读胸部X射线”(仅通过图像级标签训练)仍然是完全自动化的高精度CAD系统的艰巨任务。
May, 2017
本文介绍了使用MIMIC-CXR数据集训练并评估深度卷积神经网络来识别多种常见胸部疾病的结果,提出了一种可以同时处理前后位胸透图像的新型DualNet体系结构,并通过与使用单独基准前位和侧位分类器进行比较来展示DualNet体系结构的性能提升。
Apr, 2018
利用深度卷积神经网络(CNNs)构建了一个多标签分类框架,能够准确检测14种常见胸部疾病和病灶的存在,通过对UGCXR数据集的训练,该模型取得了目前最高的AUC分数0.940, 平均优于独立评审组中的2.6位放射科医生,表现优于目前CheXpert测试集上的其他分类器。
May, 2020
本文提出了一种多标签胸部 X 光分类模型,能够准确分类图像发现,同时将发现位置定位到正确的解剖区域。该模型包括两个模块 - 检测模块和解剖依赖模块,并采用图卷积网络实现解剖部位之间的有关系学习。实验结果表明,与现有的多标签胸部 X 射线图像分类方法相比,该方法是有效且能够提供精确的位置信息。
May, 2021
本研究提供了基于场景图的Chest ImaGenome数据集,利用自然语言处理和基于图集的边界框检测构建了局部标注,并通过放射学家构建的X线诊断本体论将每个CXR的注释连接为以解剖学为中心的场景图。
Jul, 2021
本文提出了一种潜在可扩展的方法,使用眼动仪和麦克风来收集隐式本地化数据,从而创建了REFLACX数据集(包括3032个同步集)。该数据集由五位放射科医生标记并包含了对MIMIC-CXR数据集中2616种胸部x光片的时间戳报告转录。此外,提供了包含心肺轮廓和异常标注的辅助标注,可用于计算多用户之间的一致性得分。
Sep, 2021
CheX-nomaly模型通过对比学习方法和病变框解关联来显著提高胸部异常定位模型的泛化能力,并引入新的损失技术来增强U-net模型在边界框分割上的性能,从而为胸部疾病诊断的精确性提供了有前景的解决方案,特别关注减少医疗保健中视觉错误的数量。
Nov, 2023
BarlowTwins-CXR通过自监督学习策略显著提高了胸部X射线图像异常定位的效率和准确性,超越了传统的迁移学习方法,并有效地解决了跨域场景中的领域不一致问题。我们的实验结果表明,利用自监督学习可以提高在医学环境中具有有限异构数据的模型的泛化能力。
Feb, 2024
使用MAPLEZ方法,使用基于规则的系统从CXR报告中提取和增强发现标签,包括存在性、位置、严重程度以及放射科医生对发现的不确定性,并在分类监督中取得了显著的模型质量提升
Mar, 2024
通过结合文本提示和边界框,我们提出了一种新颖的多任务架构和训练方法,用于解决医学图像的报告生成和解释性问题。我们称之为胸部 X 射线解释器(ChEX)。通过在9个不同的胸部X射线任务中进行评估,包括定位图像解释和报告生成,我们展示了ChEX与SOTA模型的竞争力,并进一步分析证明了ChEX的交互能力。
Apr, 2024