类似皮肤科医生的可解释人工智能提高黑色素瘤诊断准确性:眼动追踪研究
提出一种基于证据的分类方法,利用CNN,三元损失和全局平均池化学习特征嵌入,通过kNN搜索分类,并以发现的邻居和最相关的局部图像区域作为证据。通过实现一种新的分级三元逻辑,根据疾病标签和非专家相似性一起学习嵌入,以确保结果对于任何技能水平的人来说都具有标签准确性和视觉相似性,从而改善了基于疾病标签和标准多类损失的基准结果,并显着改善了结果的定量相关性和局部图像区域。
May, 2018
本文介绍了一种基于AI的医学图像分析框架ExAID,利用多模式概念解释提供易于理解的文本解释和可视化地图来验证预测结果,用于皮肤病例中的良恶性、依赖的模糊的问题。该框架不仅在临床工作流程中提供诊断界面,还提供了教育模式,可用于数据和模型探索,用于辅助医学研究和教育。通过定量和定性的评估,表明多模方式的解释对于CAD辅助方案的效用甚至在错误的预测情况下也是很有用的。该应用是在其他生物医学成像领域中类似应用的基础。
Jan, 2022
提出了临床XAI指南作为临床用户获取来自AI的决策支持和遵守基于证据的医疗实践的关键,它由五个优化临床XAI的标准组成,涵盖可理解性、临床相关性、真实性、信息可信度和计算效率等方面,对16种常用的热图XAI技术进行了系统评估,并证明了指南的可行性。
Feb, 2022
本文提出了困扰全球30亿人的皮肤科医疗问题,探讨了如何在多样化皮肤色调和非常见病例的图像中应用人工智能技术,并发现当前的皮肤科AI算法存在严重的算法偏差,导致对较暗的肤色和非常见疾病的正确率远低于轻皮肤色调和常见疾病,并进一步探讨了训练皮肤科AI模型所使用的基于视觉的人工标签的缺陷与局限性。
Mar, 2022
该研究开发了一种人工智能决策支持工具,通过使用一种先进的目标检测算法,从患者图像中识别和提取所有皮肤病变,进而帮助皮肤科医生鉴别丑小鸭症状(UD),该工具的临床验证研究表明,辅助AI后,皮肤科医生的信心提高,与AI识别的UD的一致性得到改善。
Nov, 2023
使用现代深度学习方法和可解释人工智能(XAI)来解决皮肤癌检测问题,采用四个先进的预训练模型进行皮肤病变分类,XceptionNet被确定为表现最佳的模型,本研究展示了深度学习和可解释人工智能(XAI)如何改善皮肤癌诊断,为医学图像分析领域未来的发展奠定了基础。
Dec, 2023
通过与皮肤科医生在一个具有多个不同医院和摄像机配置、罕见黑素瘤亚型和特殊解剖部位的异质测试集上进行比较,我们评估了“全数据扩展”(ADAE)算法在黑素瘤检测中的诊断准确性,并提高了算法的泛化能力。与皮肤科医生相比,AI在异质数据集上表现出更高的平衡准确度和敏感度,但牺牲了特异性。因此,AI在诊断复杂情况时可能有潜力支持皮肤科医生。
Jan, 2024
通过可解释的原型-部分模型以及自动分割网络和用户优化的原型引入的非专家反馈指导,我们提出了一种新的黑素瘤诊断方法,实验证明即使没有专家监督,我们的方法在性能和泛化程度上均优于不可解释的模型。
Feb, 2024
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为“黑匣子”运作,其推理方式被遮蔽不可访问,增加了误诊的风险,从而可能导致患者伤害。因此,有一个迫切的需求来培养透明度,在医疗界中确保机器推出的诊断建议的逻辑是清晰可理解的,这种转向透明度不仅是有益的,更是在医疗行业中负责任的人工智能整合关键一步,确保人工智能能够帮助而不是阻碍医务人员的重要工作。
Mar, 2024
开发了一种人工智能工具,通过远程皮肤病学为基底细胞癌(BCC)的诊断提供了可解释的支持,从而加快了转诊流程并优化了资源利用。
Jun, 2024