通过开发一种树基的方法学,Optimal Predictive-Policy Trees (OP2T),我们提出了一种规定性方法来解决机器学习模型选择中的关键问题,从而产生可解释的适应性策略以选择预测模型或集成,并具有参数化选项拒绝进行预测。
May, 2024
我们提出了 INTERPRETER,一种快速蒸馏方法,用于生成用于强化学习的可解释可编辑的树程序。我们通过实验证明,我们的树程序在各种顺序决策任务中能够与训练数据匹配,同时评估了我们设计选择对可解释性和性能的影响。我们展示了我们的策略如何被解释和编辑,以纠正目标对齐错误,并解释真实的农业策略。
本文通过设计一种从紧凑神经策略中抽取树形表示的算法,并引入可解释性度量来评估网络对任务动态的发现能力,进一步量化提取决策路径的准确性和计算跨神经元逻辑冲突,成功应用于多种紧凑网络体系结构,并取得了显著的成果。
Oct, 2022
了解人类行为以实现决策的透明度和责任感非常重要。我们提出了一种新颖的基于模型的贝叶斯方法进行可解释的政策学习,该方法以数据驱动的方式呈现决策行为,并在偏差的信念更新过程和次优的信念 - 行为映射之间进行联合估计,能够满足透明度、部分可观察性和完全离线操作等关键标准。通过对阿尔茨海默病诊断问题的模拟和真实世界数据的实验,我们展示了我们的方法作为审计、量化和理解人类决策行为的潜力。
Oct, 2023
使用模型树作为替代模型,将特征空间通过决策规则划分为可解释的区域,然后利用基于加性主效应的可解释模型来近似黑盒模型的行为,平衡可解释性和性能,对比了四种模型树算法,最后提供了用户特定的推荐概述。
本研究提出了一种包括层级代理规则和可交互的代理规则可视化的工作流程,用于解释模型。使用可视化方法来解决规则可视化的问题,并评估了算法的参数灵敏度和时间性能,以及可用性研究。
Jan, 2022
本文探讨了使用可读性更好的树模型进行奖励函数生成的优势,并通过实验证明其在高维复杂任务上具有与神经网络同等的有效性与鲁棒性,并展示其可追溯性、验证性和可解释性。
我们提出了一种模型无关的可解释替代方案,用于全局和局部解释黑盒分类器。该替代方案使用相关系数自动发现变量的直观分组,并将其嵌入到替代决策树中,以提高其可理解性。在宏观经济数据库上的实验结果表明,在保持替代模型准确性和保真度的同时,该方案提高了人类可解释性。
Jun, 2019
通过结合模仿投影、数据集聚合和局部搜索启发式,我们提出了一种直接提取预训练神经策略的程序化策略的简单方法,该方法在编程问题和摆动问题上实现了可解释性和高效性。
通过上下文化策略恢复(CPR),将建模复杂决策过程的问题重新构架为多任务学习问题,其中复杂决策策略由上下文特定策略组成。通过对模拟数据和真实数据的研究,CPR 在预测重症监护单位抗生素处方(相对于先前的最佳结果增加了 22%的 AUROC)和预测阿尔茨海默病患者的 MRI 处方(相对于先前的最佳结果增加了 7.7%的 AUROC)的规范任务上取得了最先进的性能。CPR 弥合了可解释和黑盒方法在策略学习方面的准确性差距,允许对上下文特定决策模型进行高分辨率的探索和分析。