可解释的人工智能在基于移动健康和临床数据的营养不良风险预测中的应用
使用人工智能技术,特别是可解释的 AI (QXAI) 框架,通过深度学习模型来预测病人的生理活动并监测生命体征,提供全局和局部解释,为决策者提供可靠依据。(Translation: By utilizing Artificial Intelligence techniques, especially the Explainable AI (QXAI) framework, this study predicts patients' physical activities and monitors vital signs through deep learning models, providing global and local explanations to assist decision-makers.)
Sep, 2023
该研究通过解释 AI 推荐来支持临床医生识别 ML 模型训练中的失误,并提出了一种基于临床背景潜在空间、全局解释和基于潜在空间相似性的本地解释的方法来支持医生鉴定基于表格数据的 ML 模型的失误,在早产儿并发症的风险评估中取得了成功应用,并提供临床实用的支持建议。
Dec, 2022
使用机器学习和可解释的人工智能技术,研究了营养状态与阿尔茨海默病(AD)相关的死亡率之间的关系,并通过随机森林模型和 Shapley Additive Explanations 方法确定了重要的营养因素,如血清维生素 B12 和糖化血红蛋白。研究显示随机森林在预测 AD 死亡率方面的有效性,并为深入理解疾病进展提供了见解。
May, 2024
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
通过结合医学人工智能和可解释人工智能技术,提出了一种自定义的可解释人工智能框架,应用于人工智能医疗物联网领域,以提高医疗系统的效果,并具备透明和可理解的决策能力。将该框架应用于脑肿瘤检测用例中,得出了准确透明的诊断结果,并且评估结果表明了其出色的性能,实现了高精确度、召回率和 F1 分数,训练准确率达到 99%,验证准确率达到 98%。这种结合高级可解释人工智能技术和基于集成的深度学习方法的框架能够实现精确可靠的脑肿瘤诊断作为医学物联网应用的一种。
Mar, 2024
本文综述了过去 5 年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的 XAI 方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
本文系统地评估了透明度和可解释性在医疗保健领域中的重要性和相关的机器学习模型。通过六种不同的方法探讨了 XAI 的各个方面和挑战,并探明了其在解决医疗保健领域中存在的问题方面所起到的重要作用。
Apr, 2023
AI 在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着 AI 模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保 AI 系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
通过解释性更详细的说明,理解在黑匣子人工智能技术中隐藏的计算细节对于我们日常生活中计算效率高的人工智能技术及其各种应用至关重要。该论文分析了几种解释性人工智能框架和方法,包括 LIME(局部可解释的模型无关解释)和 SHAP(Shapley 附加解释),并使用随机森林分类器作为黑匣子人工智能在公开的糖尿病症状数据集上进行更好的解释和透明度进行糖尿病疾病预测。
Nov, 2023
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如 “清晰度”)和解释类型(如 “基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020