解码放射科医生专注于准确的胸部 X 光诊断:一种可控和可解释的人工智能系统
我们提出了一种新颖的系统,旨在识别放射科医师在他们的报告中表达的主要意图和 X 线胸部照片中相应的兴趣区域,从而帮助纠正错误,特别是在胸部放射照片异常的诊断中。该系统为经验不足的医生提供有关图像背景的理解,有潜力纠正错误并指导他们到精确的兴趣区域,对提供给医院中经验不足的放射科医师或住院医师有建设性的反馈意义,有助于提高诊断准确性并促进医学界的持续学习。
Apr, 2024
通过整合医生的眼动数据以及文本提示,利用视觉 - 语言模型(VLMs)来增强胸部 X 射线分析中的人机交互,从而提高计算机辅助诊断在医学图像任务中的准确性。
Apr, 2024
利用计算机视觉预测医学图像中的人眼注视路径,通过大型数据库生成热度图和眼动视频以协助综合分析,并与最先进的方法相比较其性能和普适性。
Jun, 2024
使用新型深度学习框架,结合医生的视觉注意力图,在胸部 X 射线扫描中实现关节疾病的诊断和预测对应的视觉显著性图,提高计算机辅助诊断质量。
Mar, 2024
通过引入临床概念到分类过程中,我们提出了一种基于概念瓶颈模型的预处理方法,改善了肺癌检测的分类性能(F1>0.9),同时生成比现有技术更可靠、临床相关的解释,解决了现有后期 XAI 技术在医疗数据上解释能力较差的问题。
Mar, 2024
CoRaX 是一种协同人工智能系统,通过整合眼动数据和放射学报告来改进胸部放射学的诊断准确性,找出感知错误并优化决策过程。研究使用 REFLACX 和 EGD-CXR 数据集以及大型多模态模型开发了 CoRaX,并评估了其推荐过程、推荐质量和协同诊断能力。结果表明,CoRaX 能够高效地协同放射科医生,纠正各种异常中的感知错误,并在新手放射科医生的教育和培训中具有潜在应用。
Jun, 2024
通过引入 CheXinstruct 数据集、设计临床大规模语言模型、图像编码器和网络以及引入 CheXbench 基准来解决医疗影像领域中胸部 X 射线图像自动解释的挑战,并证明 CheXagent 在这些任务中优于先前开发的通用和医学领域基础模型。
Jan, 2024
该研究针对在资源受限的医疗环境中对低分辨率的胸部 X 光片进行诊断的挑战,通过引入多级协作关注知识(MLCAK)方法,利用视觉变换器(ViT)的自我关注机制,将高分辨率图像的关键诊断知识迁移至低分辨率的胸部 X 光片,提高了诊断准确性,尤其针对低分辨率的胸部 X 光片分析所设计的多任务框架,在本研究中使用 Vindr CXR 数据集验证了能够从低分辨率图像(如 28 x 28)诊断疾病的显著改进,从而暗示了传统依赖高分辨率图像(如 224 x 224)的关键转变。
May, 2024
该研究拟定了 CheXplain 系统,以帮助医生了解和探索基于人工智能的胸透分析,并提出了设计可解释的医学人工智能系统的建议。
Jan, 2020
本研究旨在测量可解释的机器学习系统对放射学家之间的临床诊断一致性产生的影响。VinDr-CXR 在作为诊断工具时,极大地提高了六名放射学家之间的一致性,并且在每个放射学家与机器系统之间也显著提高了一致性。
Apr, 2023