可解释人工智能与多重共线性:当前方法的简要综述
本文系统分析了多模态可解释人工智能的最新进展,主要聚焦于相关的主要预测任务、公开可用的数据集、各类 MXAI 方法、评价指标以及未来研究方向和当前挑战。
Jun, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
这篇研究论文探讨了 AI 模型的可解释性,并提出了一种基于相关影响的新方法,可提高深度学习等复杂模型的可解释性和准确性,实现了解释度和准确度之间的平衡。
May, 2023
通过对网络系统中的网络驱动安全威胁和问题进行系统分类,本文就网络安全中的可解释人工智能问题进行了回顾和研究,探讨了解释人工智能目前的挑战和局限性,并提出了未来的研究方向。
Mar, 2023
提出了一种简单而有用的代理,修改任何 XAI 特征排序方法的结果,以便考虑预测变量之间的依赖关系。该方法是模型不可知的,而且在存在共线性时计算每个预测变量在模型中的影响非常简单。
Apr, 2023
本文综述了可解释人工智能(XAI)领域内的现有文献,并对未来的研究前景进行了探讨。我们提出了一种新的可解释性定义,针对各种机器学习模型提出了分类。同时,我们讨论了 XAI 面临的一系列挑战,如数据融合和解释性之间的折衷等。最终,我们的观点指向了 “负责任人工智能” 的概念,在其中强调了 AI 方法在实际组织中的实施中必须保证公平性、模型可解释性和可追溯性。
Oct, 2019