可解释人工智能在革命性人类健康监测中的作用
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
本文综述了过去5年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的XAI方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
本文系统地评估了透明度和可解释性在医疗保健领域中的重要性和相关的机器学习模型。通过六种不同的方法探讨了XAI的各个方面和挑战,并探明了其在解决医疗保健领域中存在的问题方面所起到的重要作用。
Apr, 2023
本研究系统分析了解释性人工智能(XAI),重点考虑目前在医疗领域中使用的模型。研究分析了XAI的流行趋势,并介绍了研究的主要方向。此工作的讨论将有助于规范XAI领域。
Apr, 2023
本综述论文探讨了在可解释人工智能(XAI)领域中,用于革新医学诊断模型的革新性方法和方法论。通过揭示潜在的决策过程,XAI技术使得医疗保健专业人员理解、信任和有效利用这些模型进行准确和可靠的医疗诊断。文章强调了XAI在医疗诊断方面取得的关键进展及其潜力,以提高患者的治疗效果并加强人工智能驱动的诊断系统的信任。
Jun, 2023
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
eXplainable Artificial Intelligence (XAI) is applied to age prediction tasks in medical research, providing explanations for predictions and biomarkers of aging and age-related diseases, demonstrating the benefits of XAI in medical applications.
Jul, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
本文针对疾病机制复杂和患者症状变化大所带来的诊断工具开发难题,提出了可解释人工智能(XAI)的重要性,强调其提高诊断透明度和改善患者护理的潜力。通过对各种慢性疾病的XAI方法文献回顾,发现了9种流行的XAI算法,并评估了它们在医疗保健中的优缺点,为未来XAI在健康监测中的应用提供了重要研究机遇。
Sep, 2024