医疗保健可解释人工智能综述:为什么、如何和何时?
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
本文综述了过去5年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的XAI方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
本文系统地评估了透明度和可解释性在医疗保健领域中的重要性和相关的机器学习模型。通过六种不同的方法探讨了XAI的各个方面和挑战,并探明了其在解决医疗保健领域中存在的问题方面所起到的重要作用。
Apr, 2023
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
eXplainable Artificial Intelligence (XAI) is applied to age prediction tasks in medical research, providing explanations for predictions and biomarkers of aging and age-related diseases, demonstrating the benefits of XAI in medical applications.
Jul, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
该研究针对人工智能模型在安全关键领域(如医疗、金融和自动驾驶)中的“黑箱”特性,探讨了可解释人工智能(XAI)的必要性和现状。本文通过全面的文献综述,填补了关于XAI模型的数学表述和设计方法论的空白,旨在提升AI模型的可信性、透明性、责任性和公平性。
Aug, 2024
本文针对疾病机制复杂和患者症状变化大所带来的诊断工具开发难题,提出了可解释人工智能(XAI)的重要性,强调其提高诊断透明度和改善患者护理的潜力。通过对各种慢性疾病的XAI方法文献回顾,发现了9种流行的XAI算法,并评估了它们在医疗保健中的优缺点,为未来XAI在健康监测中的应用提供了重要研究机遇。
Sep, 2024
本研究针对疾病机制复杂性和病人症状多样性对有效诊断工具开发的重大障碍展开,强调了可解释人工智能(XAI)的必要性。研究通过文献回顾分析了9种流行的XAI算法在医疗健康中的应用及其优缺点,指出XAI在改善患者护理方面的潜力以及未来的研究机会。
Sep, 2024