利用多实例学习无需本地注释的胸部 X 光关键结果定位
本文提出了一种基于弱监督深度学习框架的方法,该框架配备了压缩和激励块、多图传输和最大 - 最小池化,用于分类胸部疾病以及定位可疑病变区域,实验证明所提出的模型具有更好的性能。
Jul, 2018
CheX-nomaly 模型通过对比学习方法和病变框解关联来显著提高胸部异常定位模型的泛化能力,并引入新的损失技术来增强 U-net 模型在边界框分割上的性能,从而为胸部疾病诊断的精确性提供了有前景的解决方案,特别关注减少医疗保健中视觉错误的数量。
Nov, 2023
该研究针对在资源受限的医疗环境中对低分辨率的胸部 X 光片进行诊断的挑战,通过引入多级协作关注知识(MLCAK)方法,利用视觉变换器(ViT)的自我关注机制,将高分辨率图像的关键诊断知识迁移至低分辨率的胸部 X 光片,提高了诊断准确性,尤其针对低分辨率的胸部 X 光片分析所设计的多任务框架,在本研究中使用 Vindr CXR 数据集验证了能够从低分辨率图像(如 28 x 28)诊断疾病的显著改进,从而暗示了传统依赖高分辨率图像(如 224 x 224)的关键转变。
May, 2024
本文提出了一种多标签胸部 X 光分类模型,能够准确分类图像发现,同时将发现位置定位到正确的解剖区域。该模型包括两个模块 - 检测模块和解剖依赖模块,并采用图卷积网络实现解剖部位之间的有关系学习。实验结果表明,与现有的多标签胸部 X 射线图像分类方法相比,该方法是有效且能够提供精确的位置信息。
May, 2021
通过一种具有领域知识的自动生成算法和深度学习网络,对于胸部 X 光片的影像可实现自动标记并生成描述性报告,其精度优于现有的状态评价指标,如先前的自动化方法无法准确检测广泛的放射学发现。
Jul, 2020
本文介绍了一种基于位置感知的 Dense Networks(DNetLoc)的方法,结合高分辨率图像数据和异常的空间信息进行异常分类,并利用最大的公开数据集对其进行了评估。我们在 ChestX-Ray14 基准数据集上实现了最佳平均 AUC 分数,并在明确使用病理位置信息时取得了改进的 AUC 分数。
Mar, 2018
本篇论文提出并评估了一个名为 CXR-FL 的基于深度学习的联邦学习方法,用于医学影像分析,证明了联邦学习有助于保持模型的泛化能力以及深度学习模型对于肺部分割数据更为敏感,且其在分类方面的性能对于联邦学习的参数选择有一定程度的依赖。
Apr, 2022
本文回顾了使用深度学习对胸部 X 射线摄影进行分析的所有研究,并对图像级预测(分类和回归)、分割、定位、图像生成和领域自适应的工作进行了分类。同时详细介绍了商业应用,并提供了关于现有技术水平和未来潜在方向的全面讨论。
Mar, 2021
BarlowTwins-CXR 通过自监督学习策略显著提高了胸部 X 射线图像异常定位的效率和准确性,超越了传统的迁移学习方法,并有效地解决了跨域场景中的领域不一致问题。我们的实验结果表明,利用自监督学习可以提高在医学环境中具有有限异构数据的模型的泛化能力。
Feb, 2024
本研究探索了使用基于规则的标签机器人进行弱监督的深度学习标签预测模型的潜力,并提出了一种深度学习的 CheXpert 标签预测模型,该模型在基于规则的德国 CheXpert 模型标记的报告上进行了预训练,并在少量手动标记的报告数据集上进行了微调。结果表明,本方法的有效性显著优于基于规则的模型,并强调了即使在稀疏数据场景下,采用深度学习模型的好处和规则标记器作为弱监督工具的用处。
Jun, 2023