可解释的人工智能提升青光眼转诊,但人工智能与人类团队仍未达到单独使用的水平
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了ML解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022
本文探讨了AI技术在人类辅助诊断中的应用以及如何设计合适的工作流程来整合人与AI的协同工作,通过开展用户研究,概述了AI呈现时间对人-AI团队性能和协议的影响,总结了在人-AI协作过程中遇到的问题以及AI工具开发中需考虑的事项。
May, 2022
通过与多个预训练模型的比较,本文提出了一种具有94.71%分类准确率的转移学习模型来识别青光眼,并利用本文的Local Interpretable Model-Agnostics Explanations (LIME)方法来帮助医疗专业人员理解该系统的预测过程。这种改进使传统深度学习模型的不透明和脆弱性得到缓解,并为医疗专业人员提供了重要的综合信息以帮助他们做出判断。
Oct, 2022
该研究通过调查最近的研究,使用眼底图像、光学相干断层扫描和视野图像等方法基于人工智能的青光眼诊断,特别关注利用深度学习的方法。研究提供了最新的分类法,并包含可用源代码的链接,以提高研究方法的可重复性。通过对广泛使用的公共数据集进行严格的基准测试,揭示了在普适性、不确定性估计和多模态集成方面的性能差距。此外,调查展示了关键数据集和限制,如规模、标签不一致性和偏见。我们描述了未来研究的开放性挑战并详细阐述了有前景的方向。此调查旨在对希望将进展转化为实践的人工智能研究人员以及希望利用最新人工智能成果改善临床工作流程和诊断的眼科医生有所帮助。
Jul, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
通过三种优化策略,我们引入了专门设计用于眼科学的 EyeGPT,该模型的综合评估框架包括不同领域的眼科学数据集、不同用户和多样化的查询意图。该模型在可理解性、可信度和同理心方面与人类眼科医生相当,为开发专门的大型语言模型在眼科学中提供了有价值的见解。
Feb, 2024
本研究针对医疗AI在眼病诊断中的现实应用难题,特别是缺乏临床工作流程验证的现状进行了探讨。通过构建用于年龄相关性黄斑变性(AMD)诊断的AI辅助工作流程,实验证明AI的引入显著提高了诊断准确性和效率。此外,持续学习的模型在多个数据集上展示了稳健性能,促使诊断准确率提升29%。
Sep, 2024
本研究解决了皮肤科医生与人工智能(AI)及可解释人工智能(XAI)工具互动的客观评估需求。通过眼动追踪技术,研究表明,XAI系统使黑色素瘤诊断准确性比标准AI系统提高了2.8个百分点,对临床实践和医疗诊断中XAI的设计具有重要影响。
Sep, 2024