利用显著性图向终端用户解释低质量心电图的应用研究
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为 “黑匣子” 运作,其推理方式被遮蔽不可访问,增加了误诊的风险,从而可能导致患者伤害。因此,有一个迫切的需求来培养透明度,在医疗界中确保机器推出的诊断建议的逻辑是清晰可理解的,这种转向透明度不仅是有益的,更是在医疗行业中负责任的人工智能整合关键一步,确保人工智能能够帮助而不是阻碍医务人员的重要工作。
Mar, 2024
在 COVID-19 疫情期间,远程医疗使用得到加速,并且皮肤病是常见的使用案例。为了解决患者拍摄的照片质量差的问题,我们开发了 TrueImage 2.0,一种人工智能(AI)模型,用于评估患者的远程医疗照片质量,并提供实时反馈以改进照片质量。
Sep, 2022
该研究拟定了 CheXplain 系统,以帮助医生了解和探索基于人工智能的胸透分析,并提出了设计可解释的医学人工智能系统的建议。
Jan, 2020
本论文针对医学图像 AI 模型预测结果的解释问题,提出了基于不同模态的特征重要性度量方法,对 16 种 heatmap 算法进行评估,结果表明这些算法不能很好地解释多模态医学图像的 AI 模型预测结果,因此需要基于该研究提出的度量方法设计 XAI 算法以满足临床应用要求。
Mar, 2022
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
提出了临床 XAI 指南作为临床用户获取来自 AI 的决策支持和遵守基于证据的医疗实践的关键,它由五个优化临床 XAI 的标准组成,涵盖可理解性、临床相关性、真实性、信息可信度和计算效率等方面,对 16 种常用的热图 XAI 技术进行了系统评估,并证明了指南的可行性。
Feb, 2022
本研究设计了一个 AI 系统,能够在 real-world ECG 图像中检测和筛选心脏异常。该系统的表现优于心脏病学家,在心脏异常筛查方面表现最好。该系统具有准确性,客观性,易于使用,快速,低成本等特点,适用于医护人员、护理者和普通用户评估基于 real-world ECG 图像的 CAs。
Feb, 2023
本文研究使用的 CNN 在一些图像分类问题中表现非常好,但是解释 CNN 的操作是非常困难的。因此,本文提出了一种新型的解释算法,称为 LRP 算法,通过人机交互的方式发现这种算法被用于图像分类问题的特定图像特征敏感性,并针对该方法进行了用户评估。评估结果表明,该算法可以帮助参与者学习一些系统对特定图像特征的敏感性,但是对于新图像的分类任务提供的帮助似乎非常有限。因此,HCI 和人工智能社区需要超越实例级别的解释算法,继续研究解释 AI 的设计和进一步研究的问题。
Feb, 2020