有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
该研究论文旨在对可解释的机器学习进行定义和分类,并提出了一种更严谨的可解释机器学习科学评估方法的问题。
Feb, 2017
本研究提出使用标准统计工具来解决说明性文献中普遍存在的问题,通过利用统计估计器来定义解释,从而实现理论保证和评估指标的制定,以定量评估解释的质量。此方法避免了目前文献中普遍存在的主观人为评估。此外,我们认为不确定性量化对于提供稳健可信的解释至关重要,并且可以通过诸如自助法等经典统计方法在这个框架中实现。然而,需要注意的是,虽然统计学提供了宝贵的贡献,但它并不能解决所有问题。未来的研究方向可以聚焦于一些开放性问题,如为解释定义目的或建立适用于对策或对抗场景的统计框架。
Apr, 2024
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
本次综述研究了设计可解释性机器学习模型的问题,分别阐述了可解释性和说明性的概念,并以深度学习模型为例,展示了这两个不同研究方向的最新进展。
Dec, 2020
提出基于问题科学方法的机器学习可解释性框架,旨在回答与可解释性相关的特定问题,从而更深入地理解机器学习科学而非工程,同时不仅仅依赖于机器学习方法。
Jul, 2018
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
Oct, 2022
本文综述了提高可解释机器学习模型的技术,并讨论了未来研究的关键问题,如设计用户友好的解释和开发全面的评估指标,以进一步推动可解释机器学习的发展。