通过模型转换的可解释强化学习
本文提出了一种方法,使强化学习代理能够解释其行为,以期实现机器学习模型的透明化。通过将状态和行动转换为易于人类理解的描述,并使用一种可生成解释的格式,进行了计算,结果表明人类用户倾向于关注政策而非单个操作。
Jul, 2018
提出了一个形式框架,为定义不同形式目标的 RL 任务之间的转换提供了形式化定义,研究了这种转换的保持最优策略、收敛和稳健性的概念,证明了从 LTL 规范到基于奖励的规范的某些缩减不存在,证明了 RL 算法不存在 PAC-MDP 保证安全规范。
Oct, 2021
为了解释深度强化学习序列的决策,该研究提出了抽象策略图,作为一系列状态的马尔可夫链,以及基于值函数和观测到的转换的抽象策略图生成方法。该方法适用于许多现有的强化学习方法,具有二次时间复杂度和可靠性。
May, 2019
本文提出利用基于记忆的可解释强化学习方法解决分层任务的复杂性,并计算成功概率用于解释代理的行为。结果表明,在高层任务中使用记忆算法可以计算出代理的成功概率并用作指导其行为的基础。
Dec, 2022
该论文对可解释强化学习方法进行了归类和评估,并发现大多数方法是通过模仿和简化复杂模型而非设计本质简单模型来实现目的的,缺乏人文思考和跨学科研究。因此需要进行一系列的跨学科努力才能将这些生成的解释改进为非专家用户易于理解的形式,以实现可解释人工智能的最终目标。
May, 2020
本篇综述论文将积极介绍深度强化学习与可解释机器学习的交叉,比较了先前的方法,提出了一种补充,阐明了深度学习对智能机器人控制任务的适用性,强调机器学习与人类知识相互融合提升学习效率和性能的意义,并评估了未来 XRL 研究面临的挑战和机遇。
Nov, 2022
本文介绍了针对多智能体强化学习提出两种方法生成策略解释的手段:关于智能体协作和任务序列的策略总结和回答智能体行为问题的语言解释。在三个多智能体应用领域的实验结果及用户研究中,表明了该方法的可扩展性和显著提高了使用者满意度和性能评价结果。
Apr, 2022
为了改善现有强化学习算法的透明度不足,研究人员开发了一种策略正则化方法,使用离散化马尔可夫模型的全局代理来复现基于个人消费行为的投资策略,并提出了一种针对这些策略全局内在亲和性的解释方法,以实现对策略行为的推理,从而提高其可解释性。
Aug, 2022