研究人员通过借鉴因果关系文献的见解,引入因果关系和强化学习,划分了现有 Causal Reinforcement Learning (CRL) 方法的两类,并分析了每一类的不同模型的形式化。
Feb, 2023
本文使用因果关系模型来推导强化学习器的行为的因果解释,并通过对一项实验的研究结果表明,基于因果模型的解释在任务预测、解释满意度和信任方面表现更好。
May, 2019
本论文从计算机科学的角度调查了强化学习领域,包括历史、现状和实践应用等方面,并重点探讨了强化学习中的中心问题,如平衡探索和利用、马尔可夫决策理论、延迟强化学习等。
May, 1996
强化学习和因果建模在互补中相当自然地互相配合。本研究论文考察了哪些强化学习设置可以受益于因果建模,以及如何进行。
Mar, 2024
本研究提出 CausalCF,将因果推理与强化学习相结合,使得该模型在复杂任务上更加稳健,同时,实验表明 CausalCF 已经成为了第一个完整的能够将 Causal Curiosity 和 CoPhy 思想融入的因果强化学习解决方案。
Nov, 2022
本研究利用强化学习在 CauseNet 知识图谱上应用 Actor-Critic 方式,通过搜索图谱回答因果问题,并通过经验学习和算法改进降低搜索空间,结果表明与朴素的宽度优先搜索相比,每个二元因果问题访问不到 30 个节点,在路径上的边均有原始来源,可轻松验证。
Nov, 2023
本文提出了强化学习中的课程学习框架,并使用此框架对现有的课程学习方法进行分类和研究,以找出未解决的问题并提出未来研究的方向。
Mar, 2020
研究通过元强化学习是否可以发现因果推理,在这项研究中,我们训练了一个递归神经网络对包含因果结构的一系列问题进行无模型强化学习,证明了该代理可以在新的情况下进行因果推理,从观测数据中得出因果推断结果以及进行反事实预测,我们提出这种学习方法也可以在复杂的推理场景中进行因果推理,同时该工作还提供了新的强化学习结构探索策略。
Jan, 2019
通过引入因果图模型来显式建模状态生成过程,并通过主动干预学习环境,优化衍生目标,提出了一种在探索阶段使用干预进行因果结构学习,然后在开发阶段使用学习到的因果结构进行策略指导的框架。实验结果表明,我们的方法在因果指导的策略学习和因果结构学习的良性循环的推动下,在故障报警环境中有效且稳健,超越了最先进的基准方法。
Feb, 2024
调查了深度强化学习中迁移学习方法的最新进展,提供了对目标,方法,兼容强化学习骨架以及实际应用等方面分析的框架,并从强化学习的角度探讨了迁移学习与其他相关话题之间的联系和潜在挑战。
Sep, 2020