为了让人工智能系统得到广泛的公众认可,我们必须开发能够解释黑匣子模型(如神经网络)决策的方法。
Oct, 2019
对于可解释人工智能的半事实即使思考的局部事后解释性查询进行了研究,比较了不同类别的模型的计算复杂度,发现线性模型和基于树的模型比神经网络更具可解释性。然后引入了一种基于偏好的框架,使用户能够根据其偏好进行个性化解释,无论是在半事实还是对事实进行优化,增强了可解释性和用户中心性。最后,探索了所提出的基于偏好的框架中几个可解释性问题的复杂性,并提供了多项式情况下的算法。
Jan, 2024
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
提出了一种名为 XAI Test 的应用基准评估方法,旨在评估不同水平的信息提供对最终决策的影响,针对现实世界的欺诈检测任务进行了实验,并使用多种统计方法分析了三种热门解释器的影响。
Jan, 2021
本文提出了一种新的解释性方法框架,它在拟合先验知识与解释可解释性目标之间增加了兼容性项,并在反事实解释上实例化了提出的形式化方法,称为知识整合反事实解释(KICE)。
Apr, 2022
本研究探讨了机器学习算法透明化的法律、哲学和技术方面,指出后评估阶段的解释算法在对抗情况下无法实现透明化目标,并呼吁更多关于透明化机制的讨论。
Jan, 2022
提出了两种通用算法(潜在和超像素基础),可以从测试图像中分离出多个清晰的特征部分,并将其与训练数据中的解释性案例联系起来,通过精心设计的用户研究验证了其有效性,结果表明所提出的方法可以适当调整用户对 ImageNet 数据集中模糊分类的正确性感觉,而仅显示解释而不突出特征时无法实现该效果。
Nov, 2023
应用人工智能模型的可解释性方法在特定应用问题中需要进行评估,而对于 80% 的应用论文,这些方法并未进行任何形式的评估。
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
评估 LIME 和 SHAP 两种常用工具的用户可理解性和可预测性,发现 SHAP 对于接近模型决策边界的样本提供的解释可理解性显著降低。此外,发现反事实解释和错误分类可以显著增加用户对机器学习模型决策的理解。根据研究结果,提出为未来的事后解释方法提供增加可理解性和可预测性的设计建议。
Sep, 2023