该研究论文旨在对可解释的机器学习进行定义和分类,并提出了一种更严谨的可解释机器学习科学评估方法的问题。
Feb, 2017
本文综述了提高可解释机器学习模型的技术,并讨论了未来研究的关键问题,如设计用户友好的解释和开发全面的评估指标,以进一步推动可解释机器学习的发展。
Jul, 2018
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016
本文综述了因果可解释模型的问题和方法,并深入探讨了用于衡量解释度的评估度量标准,从而帮助实践者了解每种评估度量标准适用于哪些场景。
Mar, 2020
本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
通过解释性机器学习,可以从大数据集中生成新的知识或进行发现,验证这些发现有助于提高机器学习系统的可信度和科学的可重复性。从实践和理论两个角度出发,我们讨论解释性机器学习的技术与挑战。
Aug, 2023
本次综述研究了设计可解释性机器学习模型的问题,分别阐述了可解释性和说明性的概念,并以深度学习模型为例,展示了这两个不同研究方向的最新进展。
Dec, 2020
该研究呈现了机器学习的可解释性与 PDR 框架,探讨了现有解释方法的分类与优劣评估,提供了实际案例并讨论了未来研究方向。