使用知识图谱进行深度强化学习的迁移学习
本文介绍了一种基于深度强化学习的架构,将游戏状态表示为知识图谱,通过剪枝动作空间和转移学习等技术实现了更高效的探索和学习,通过测试表明,此技术可在 TextWorld 平台上更快地学习控制策略。
Dec, 2018
我们开发了一个人工智能代理,通过与其他代理进行对话来积极增加其知识库,并通过识别新的集成信念周围的图模式来生成对话响应,我们展示了在交互中可以使用强化学习来学习选择有效的图形模式,而无需依赖明确的用户反馈,并在这一背景下,我们的研究证明了利用用户作为信息来源的可行性。
Jun, 2024
通过使用端到端学习的图形结构表示,我们提出一种新颖的图形辅助转换器代理(GATA),并探究其如何计划和推广文本游戏,并证明学习到的基于图形的表示有助于代理人收敛到比纯文本模型更好的策略,促进游戏配置的有效推广。
Feb, 2020
该文提出了一种通过注入领域知识的方式来改善基于文本游戏中的智能代理的实现过程,并考虑了多种不同的注入策略,包括知识图谱和输入编码策略的增强,实验结果在 ScienceWorld 文本游戏环境中得到证明。
May, 2023
本文介绍了一种基于知识图谱的 RL 代理的层次化框架,通过在高层次执行元策略将整个游戏分解为一组由文本目标指定的子任务,并通过知识图谱选择其中一个,然后在低层次执行子策略进行目标条件强化学习,实验结果表明,所提出的方法具有较好的泛化性能。
Sep, 2021
本文探讨了基于文本的游戏控制策略的学习方法。该方法使用深度强化学习框架,联合学习游戏状态表示和行动策略。通过把文本转化为向量,能够更好地捕捉游戏状态的语义表示。实验结果表明,我们提出的方法显著优于传统基于词袋模型的方法。
Jun, 2015
该论文聚焦于构建基于文本的游戏环境的世界模型,利用知识图谱和自然语言行动生成模型,提升增强学习智能体在该环境下的效率。通过零样本消融实验,表明该方法显著优于现有的文本世界建模技术及其各自贡献的重要性。
Jun, 2021
本文提出了一种基于图形表示的对话状态的新型对话模型,该模型在人机交互中使用知识图来连续更新对话状态,并利用简单而有效的图形到文本机制将对话状态图转化为自然语言形式,经过用户研究得出,使用图形到文本方法的机器人响应在被认为是事实的程度上有统计学上的显著改进。
Nov, 2023
本文介绍了 KG-A2C 代理,它通过构建动态知识图谱并使用基于模板的行动空间来生成动作,解决了在大规模组合自然语言行动空间中扩展强化学习代理以应对自然语言理解、部分可观察性和行动生成挑战的问题;从广泛的 IF 游戏结果来看,KG-A2C 优于当前的 IF 代理,尽管行动空间尺寸呈指数级增长。
Jan, 2020