该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
Aug, 2022
该研究是对人工智能模型解释的广泛调查,发现解释决策和原因的不同方法和原因的异质性导致了个体解释框架。
Oct, 2022
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023
介绍了解释在人工智能和机器学习决策系统中所扮演的角色,提供了解释的替代概念,并评估了现有解释方法和所需的特点。
Aug, 2018
该论文提出,可从解释生成、选择、评估和呈现的人类认知偏见和社会期望中借鉴人类解释行为,以推进可解释的人工智能领域,并回顾了哲学、认知心理学、社会心理学等相关领域的研究成果。
Jun, 2017
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
本文对可解释性人工智能的相关文献进行了系统回顾,发现了四个主题性讨论,旨在推动可解释性人工智能领域的研究进一步深入发展。
Dec, 2020
该研究论文提出了解释性机器学习方法来提高人类决策水平和人工智能协助决策效能之间的差距。
Mar, 2020