可解释机器学习的严格科学探索
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023
通过解释性机器学习,可以从大数据集中生成新的知识或进行发现,验证这些发现有助于提高机器学习系统的可信度和科学的可重复性。从实践和理论两个角度出发,我们讨论解释性机器学习的技术与挑战。
Aug, 2023
本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016
本文提出了一种量化解释性方法质量的量化度量,并在众包实验中通过信息传输速率得到了实证证据,从而说明解释性方法的价值。同时,还提出了一种信任度量,以检测人类决策是否过度偏向机器学习预测。
Jan, 2019