因果强化学习调查
本文综述了因果强化学习的文献,介绍了其基本概念和如何应对非因果强化学习中的主要挑战,分类并系统地回顾了现有的因果强化学习方法,最后概述了该新兴领域的未解决问题和未来方向。
Jul, 2023
本篇研究提出了一种新颖的基于强化学习 (RL) 的因果推断方法,通过将 RL 合并到基于排序的模式中,并通过一个编码器 - 解码器架构实现排序生成过程,并最终使用 RL 优化所提出的模型来处理生成的排序,以获得最终的因果图。在合成和真实数据集上的实验结果表明,所提出的方法比现有的 RL-based 方法具有更好的性能。
May, 2021
通过学习具有因果模型语义的潜在变量表示形式,此研究论文探讨了因果模型在人工智能中的应用和理论基础,重点关注可辨识性问题以及在无直接监督下的表示学习目标可行性。
Jun, 2024
通过引入因果图模型来显式建模状态生成过程,并通过主动干预学习环境,优化衍生目标,提出了一种在探索阶段使用干预进行因果结构学习,然后在开发阶段使用学习到的因果结构进行策略指导的框架。实验结果表明,我们的方法在因果指导的策略学习和因果结构学习的良性循环的推动下,在故障报警环境中有效且稳健,超越了最先进的基准方法。
Feb, 2024
本研究提出 CausalCF,将因果推理与强化学习相结合,使得该模型在复杂任务上更加稳健,同时,实验表明 CausalCF 已经成为了第一个完整的能够将 Causal Curiosity 和 CoPhy 思想融入的因果强化学习解决方案。
Nov, 2022
本文针对强化学习在实际问题中难以部署的问题,提出了一系列的挑战,并通过 Markov 决策过程定义这些挑战并分析其影响,同时探讨了一些现有的解决方法。为了验证算法的可部署性,我们提出并开源了 realworldrl-suite 套件作为一个基准测试集。
Mar, 2020
本篇综述论文将积极介绍深度强化学习与可解释机器学习的交叉,比较了先前的方法,提出了一种补充,阐明了深度学习对智能机器人控制任务的适用性,强调机器学习与人类知识相互融合提升学习效率和性能的意义,并评估了未来 XRL 研究面临的挑战和机遇。
Nov, 2022
为了克服弱数据效率、泛化能力有限、安全保障缺失、解释性差等因素导致强化学习在实际应用中面临的挑战,该论文提出了一种集成结构信息的方法来提高 RL 算法的性能和效率,并将结构信息的不同模式进行了分类,并提供了设计模式方面的新视角。
Jun, 2023