有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
该研究论文提出了解释性机器学习方法来提高人类决策水平和人工智能协助决策效能之间的差距。
Mar, 2020
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
Nov, 2023
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
该研究是对人工智能模型解释的广泛调查,发现解释决策和原因的不同方法和原因的异质性导致了个体解释框架。
Oct, 2022
本研究通过适应性因果图的方式,探讨了人机共存下机器学习模型解释与人类理解的相互作用。研究发现,提高人类针对模型决策边界的理解是可能的,但提高人类对任务决策边界或模型错误的理解需要结合人类主观性经验去实现。最后,本研究提出了一些可行的措施,以及未来机器学习模型解释研究的方向。
Feb, 2022
该论文提出,可从解释生成、选择、评估和呈现的人类认知偏见和社会期望中借鉴人类解释行为,以推进可解释的人工智能领域,并回顾了哲学、认知心理学、社会心理学等相关领域的研究成果。
Jun, 2017
这篇论文探讨了可解释的人工智能技术和其评估方法之间的差距,介绍了使用简单的数学模型来评估不同模型表述的易理解程度,以及如何设置和执行相关用户研究的概念和实践框架。
Mar, 2023
介绍了解释在人工智能和机器学习决策系统中所扮演的角色,提供了解释的替代概念,并评估了现有解释方法和所需的特点。
Aug, 2018
通过用户研究,本研究评估了可解释人工智能在实际场景中对人类决策的改进效果,结果发现虽然解释有助于用户更准确地描述模型,但对于模型选择和反事实模拟这两个任务,并没有找到使用任何显著改进的证据,这表明对基于显著性的解释的实用性和可能的误解需要谨慎对待。
Dec, 2023