ScheduleNet: 用强化学习解决多智能体排班问题
本研究提出了一种名为 SchedNet 的多智能体强化学习框架,其中智能体能够自主学习如何安排通讯、编码消息以及根据接收到的信息选择动作,并在合作通讯与导航以及捕猎等不同应用场景下展示了比其他机制更显著的表现差距,达到 32% 至 43% 的性能优势。
Feb, 2019
本研究提出一种基于图神经网络和强化学习的框架来解决工厂作业车间调度问题,该框架将调度问题表示成了状态图,并使用 GNN 进行表示学习和策略学习,最终使用 PPO 算法对模型进行优化。实验结果表明,该模型优于传统的调度规则和基于强化学习的调度器,并且可以学习到一种具有泛化能力的调度策略。
Jun, 2021
本研究使用强化学习方法,提出了适用于自动生产中的调度问题的解决方案:使用 OpenAI gym 环境和启发式引导 Q-Learning 算法,成功地解决了多智能体柔性车间问题,并在该领域取得了最优解。
Oct, 2022
本文提出了一种基于图神经网络的深度强化学习方法,用于解决作业车间调度问题中的改进启发式问题,并设计了一种新颖的传递信息机制来加快解决方案评估,实验结果表明,该方法比现有的基于深度强化学习的方法在 JSSP 领域中具有更好的性能.
Nov, 2022
本研究提出了一种名为 HybridNet 的深度学习框架,该框架利用异构图编码器与循环调度传播器,采用强化学习算法在考虑时间约束的情况下进行混合人机团队调度。实验结果表明,相对于其他解决方案,HybridNet 在确定性和随机性人类表现方面的问题规模上表现出色,并且与纯 GNN 为基础的调度程序相比具有更快的运行时间。
Jan, 2023
本研究旨在使用元模型 MetaNet 来解决在线动态选择调度策略的问题,以优化任务调度和执行成本。相比于现有的深度学习调度器,MetaNet 能使执行成本、能源消耗、响应时间和服务水平协议的违规率分别提高 11、43、8 和 13%左右。
May, 2022
我们介绍了一种创新的框架来解决作业车间调度问题,通过使用 Petri 网建模作业车间,提高了可解释性,同时还实现了将原始数据直接整合到过程中,无需对作业车间实例进行预处理,Petri 网的控制功能使得自动化组件能够掌控流程,允许智能体专注于关键决策,尤其是资源分配。在公共测试基准上,我们的方法在事件驱动控制和行为屏蔽的整合下表现出竞争优势的性能。对各种优化解决方案(包括启发式算法、元启发式算法和基于学习的算法)进行的比较分析凸显了我们的方法在大规模实例中的竞争力以及在小至中等规模场景中优于所有竞争对手的优越性。我们的方法不仅具有跨各种实例规模泛化的鲁棒能力,而且利用 Petri 网的图形特性,在推理阶段动态添加作业操作,无需对智能体进行重新训练,从而提高了灵活性。
Jan, 2024
深度强化学习 (DRL) 在机器调度问题中的方法和应用进行了全面的综述和比较,发现 DRL 方法在计算速度和生成接近全局最优解方面表现优于其他方法,但面临着处理复杂操作约束、多目标优化、泛化性、可扩展性、解释性和鲁棒性等限制,解决这些挑战将是未来研究中的关键焦点。该论文为研究人员评估当前 DRL 机器调度领域的现状以及发现研究空白提供了宝贵的资源,同时也帮助专家和从业者选择适合生产调度的 DRL 方法。
Oct, 2023
通过自动学习调度规则,本文提出了一种原创的端到端深度强化学习方法来解决作业调度的 NP - 难度问题,该技术受到自然语言编码器 - 解码器模型的启发,可在最小干预下用于处理其他不同的优化作业调度任务。研究结果表明,我们在利用优先调度规则方面超过了许多传统方法,并且在最先进的深度强化学习方法中取得了有竞争力的结果。
Aug, 2023