使用深度强化学习学习公共交通网络设计和改进的启发式方法
规划自动驾驶公交车网络是一个具有挑战性的优化问题。我们提出了一种新颖的算法来规划自动驾驶公交车的线路网络。我们首先训练了一个图神经网络模型作为构建线路网络的策略,然后将该策略作为进化算法中的一种变异操作符之一。我们在一套标准的运输网络设计基准上评估该算法,发现它在现实基准实例上比独立学习的策略提高了最多 20%,比普通的进化算法方法提高了最多 53%。
Feb, 2024
本文介绍了将元启发式算法和神经网络求解器相结合应用于组合优化中,以运输网络设计问题为例进行了探索,通过将单次规划的神经网络策略训练和纳入到修改后的蜜蜂群优化算法中,实验结果表明,这种混合算法在现实问题实例上的性能比单独的学习策略提高了多达 20%,比原始蜜蜂群优化算法提高了多达 53%,并对修改后的算法的每个组件进行了一系列削减实验以研究其影响。
May, 2023
本文提出一种基于 self-attention 的深度强化学习框架,以学习解决旅行商问题(TSP)和有容量车辆路径问题(CVRP)的改进启发式算法,实验表明该方法性能优于现有的深度学习方法,并且具有良好的泛化能力。
Dec, 2019
本研究提出了一种结合顺序公交网络设计和最优学习的人工智能驱动算法,以逐步扩大路线系统并更新当前的操作员使用的知识,验证表明,考虑相关性的探索可以实现比贪婪选择更好的性能,在未来的研究中,该问题可能加入更多复杂性如出行时间弹性、换乘次数无限制和扩展成本等方面。
May, 2023
本文提出了一种基于深度强化学习的全局路由方法,该方法可以在模拟环境中生成优化的路由策略,与传统的基于贪心算法的方法相比,该方法具有更高的灵活性和更优的效果,为未来数据驱动的路由方法的培训数据集和生成不同规模和约束条件的参数化全局路由问题集合提供了可能性。
Jun, 2019
本论文提出了一种基于模型的派遣算法、基于高性能模型无关的强化学习算法和将自顶向下方法和模型无关强化学习的优点结合的新型混合算法,以路线优化策略的形式为车队提供路线规划,研究了面对实时、随机需求的情况下,在小到中型的道路网络中,对街道叫车服务的路线进行优化;使用基于代理的大规模微观仿真平台,评估了提出的算法在人工道路网络和社区基础新加坡道路网络中的表现,结果显示出基于模型的派遣算法、基于高性能模型无关的强化学习算法和混合算法在性能上均表现出色,并且混合算法可以显著加速模型无关学习者的学习过程。
Oct, 2020
在城市交通领域,地铁系统是重要和可持续的公共交通方式。该研究利用基于策略的强化学习方法,通过调整列车停站时间和巡航速度等方式,优化地铁系统的能效,以应对干扰问题,实验结果表明该方法与基准方法相比性能更佳,最高可实现牵引能耗降低达 10.9%、再生制动能量利用率提高 47.9%,提供了一种有效的城市铁路交通节能解决方案。
Apr, 2023
我们研究并开发了一种深度强化学习(DRL)方法,用于自适应流量路由,该方法利用深度图卷积神经网络(DGCNN)在 DRL 框架中学习流量行为,并通过 Q 值估计选择路由路径,实现对流量动态的快速适应。与 OSPF 协议相比,实验结果表明了该框架的有效性和适应性,在增加网络吞吐量高达 7.8% 和减少 16.1% 的流量延迟方面取得了显著效果。
Feb, 2024
本篇论文提出在 Deep Reinforcement Learning 技术中,将 Graph Neural Networks 集成进 DRL 代理中,以解决网络拓扑的泛化问题,并在路由优化的用例中测试并评估其性能,结果表明,在未曾训练过的网络拓扑中,DRL+GNN 代理能够胜过目前最先进的解决方案。
Oct, 2019