基于图神经网络的谷歌研究足球智能体
本篇论文提出在 Deep Reinforcement Learning 技术中,将 Graph Neural Networks 集成进 DRL 代理中,以解决网络拓扑的泛化问题,并在路由优化的用例中测试并评估其性能,结果表明,在未曾训练过的网络拓扑中,DRL+GNN 代理能够胜过目前最先进的解决方案。
Oct, 2019
探索了图神经网络在自我对战强化学习中是否能取代卷积神经网络的关键问题,结果发现图神经网络在处理游戏状态中的长距离依赖有优势和降低过拟合的倾向,但在辨别局部模式方面不如卷积神经网络,此发现暗示了自我对战强化学习中使用游戏特定结构以重新塑造学习的潜在范式转变。
Nov, 2023
本文提出了一个名为 BN-GNN 的新型脑网络表示框架,使用深度强化学习技术训练元策略以自动确定给定脑网络所需的最优特征聚合数量(反映在 GNN 层数中),并在八个现实世界脑网络数据集上进行了广泛实验。结果显示,相对于传统 GNN,在不同的脑网络分析任务上,BN-GNN 对性能的提升更加显著。
Mar, 2022
本研究提出了一种基于 DRL 和 GCN 的分布式学习算法,使代理人能够通过从环境中获取反馈来改进投标策略并增加利润,同时将空间系统拓扑的信息输入到 GCN 中,帮助代理人了解系统结构并提高决策的准确性。在 IEEE 30-bus 系统和 IEEE 39-bus 系统的测试中表明该算法具有较好的泛化能力和更高的利润。
Aug, 2022
本研究提出了一种使用图神经网络(GNN)和强化学习(RL)监控的新方法来预测时间序列数据。该方法将数据的图结构与模型明确地结合起来,能更自然地捕捉时间依赖关系,对于医疗、交通和天气预测等复杂时间结构中的精准预测具有优势,同时通过贝叶斯优化技术对图神经网络模型进行了进一步优化,提出的框架在时间序列预测和监控方面优于基准模型,证明了 GraphRL 在动态强化学习环境中提供准确和高效预测的潜力。
Sep, 2023
利用深度 Q 网络算法,成功对 AI Soccer 等 5:5 机器人足球游戏中的机器人进行训练,并在 AI Soccer 国际大赛中进入了前 16 强。
Sep, 2022
通过引入图神经网络,该论文提出的价值迭代算法执行图神经网络,跨越任意环境模型,并在 VI 的中间步骤上受到直接监督,证明了具有强监督的 GNN 执行者是深度强化学习系统中可行的组成部分。
Sep, 2020
在这项研究中,提出了一种最新的灵活深度 Q 网络 (FDQN) 框架,能够通过自适应方法在动态环境中处理高维度感知数据,实时进行决策,并动态调整模型结构以适应不同游戏环境的行动空间,相对于基准模型,在各种 Atari 游戏和 Chrome Dino 游戏中取得优异表现。该框架采用 epsilon-greedy 策略有效平衡新的学习和探索,其模块化结构可以轻松应用于其他基于 HTML 的游戏,同时提到了该框架在实验室条件下成功解决了一个明确定义的任务,并探讨了其在更具挑战的真实世界情境和自动化游戏玩法等领域的潜在应用。
May, 2024
本论文提出并证明了图神经网络可以应用于解决组合优化问题,通过将优化过程视为顺序决策问题,使用 Q-Learning 训练图神经网络可以在参数和训练时间上只占一小部分的情况下接近达到最先进的启发式求解器的性能。
Jan, 2024
通过强化学习训练一种基于图神经网络 (GNN) 的策略网络,来学习如何高效地标注图中的节点,以减少 GNN 训练的标注成本。该研究还证明了所学习的策略网络在同一领域和不同领域的图之间进行迁移学习的有效性。
Jun, 2020