Vizarel: 一个辅助更好理解强化学习代理的系统
基于社会学习原理的 Social Interpretable RL (SIRL) 是一种改善学习效率的新型基于人口的方法,通过模拟社会学习过程使每个群体中的智能体基于自身的个体经验和与同伴的共同经验来解决给定任务,实现了在高风险场景中解释能力关键的强化学习应用。
Jan, 2024
该论文对可解释强化学习方法进行了归类和评估,并发现大多数方法是通过模仿和简化复杂模型而非设计本质简单模型来实现目的的,缺乏人文思考和跨学科研究。因此需要进行一系列的跨学科努力才能将这些生成的解释改进为非专家用户易于理解的形式,以实现可解释人工智能的最终目标。
May, 2020
本篇综述论文将积极介绍深度强化学习与可解释机器学习的交叉,比较了先前的方法,提出了一种补充,阐明了深度学习对智能机器人控制任务的适用性,强调机器学习与人类知识相互融合提升学习效率和性能的意义,并评估了未来 XRL 研究面临的挑战和机遇。
Nov, 2022
通过使用 ARLIN 工具包,本文介绍了一种基于可解释强化学习(XRL)的方法,通过提供人类可解释的输出,帮助识别培训过的深度强化学习(DRL)模型中的潜在漏洞和关键问题,以增加用户在实际应用中的信任和采用。
Nov, 2023
提出一种新的基于概率模型的强化学习方法 VIREL,通过应用参数化的动作值函数来总结底层 MDP 系统的未来动态,使 VIREL 具有 KL 散度的寻找峰值形式、自然地从推断中学习确定性最佳策略的能力和分别优化价值函数和策略的能力。通过对 VIREL 应用变分期望最大化方法,我们表明可以将 Actor-critic 算法简化为期望最大化,其中策略改进对应 E 步骤,策略评估对应 M 步骤,最后,我们展示了来自这个家族的 Actor-critic 算法在几个领域优于基于软值函数的最新方法。
Nov, 2018
解释性人工智能(XAI)可以帮助研究强化学习(RL)模型如何工作的 RL 从业者,但对于没有 RL 专业知识的用户(非 RL 专家)的 XAI 研究不够充分。我们认为,描述 RL 模型主要状态之间转换的抽象轨迹对于非 RL 专家构建对代理模型的心理模型很有用。我们的早期结果表明,通过利用抽象轨迹的可视化,没有 RL 专业知识的用户能够推断 RL 的行为模式。
Feb, 2024
本研究通过用户研究,探究关于解释对非专家理解强化学习代理的影响,研究了视觉化 saliency 和最近的解释类型奖励分解条,并设计了实验以比较参与者对于简单实时战略游戏中 RL 代理的心理模型。结果表明,需要同时结合 saliency 和奖励条才能显著提高心理模型得分。
Mar, 2019