多智能体灵活排程问题的强化学习方法
通过自动学习调度规则,本文提出了一种原创的端到端深度强化学习方法来解决作业调度的 NP - 难度问题,该技术受到自然语言编码器 - 解码器模型的启发,可在最小干预下用于处理其他不同的优化作业调度任务。研究结果表明,我们在利用优先调度规则方面超过了许多传统方法,并且在最先进的深度强化学习方法中取得了有竞争力的结果。
Aug, 2023
本研究利用深度强化学习在 Job-Shop Scheduling 中设计了高效的 DRL 环境,使用紧密联系于 COP 方法的稀疏最小化的准则的新型简单而密集的奖励函数,相对于现有的 DRL 方法在经典基准实例上表现出更好的性能,接近先进的 COP 方法。
Apr, 2021
深度强化学习 (DRL) 在机器调度问题中的方法和应用进行了全面的综述和比较,发现 DRL 方法在计算速度和生成接近全局最优解方面表现优于其他方法,但面临着处理复杂操作约束、多目标优化、泛化性、可扩展性、解释性和鲁棒性等限制,解决这些挑战将是未来研究中的关键焦点。该论文为研究人员评估当前 DRL 机器调度领域的现状以及发现研究空白提供了宝贵的资源,同时也帮助专家和从业者选择适合生产调度的 DRL 方法。
Oct, 2023
我们提出了一种基于注意力机制的强化学习方法来解决作业车间调度问题,通过将策略梯度强化学习与改进的 Transformer 架构相结合,我们的方法在解决大规模问题上表现优于最近的研究和广泛采用的启发式规则。
Jan, 2024
本文提出了一种基于约束编程(CP)和强化学习(RL)的端到端解决调度问题的方法,通过神经网络架构和训练算法,仅需要一些调度问题的约束编码和一组小实例,我们的方法在七个 JSSP 数据集上进行了评估,并展示了其在相同时间限制内找到比静态 PDRs 和 CP 求解器更高质量的解决方案的能力。
Jun, 2023
本文介绍了一种使用 DRL 求解 JSSP 问题的新方法,该方法使用了 PPO 算法并在环境中加入了 OSM 以实现更好的泛化学习,并在可用的基准实例集上进行了深入的性能分析和比较。
Feb, 2023
本文提出了一种基于图神经网络的深度强化学习方法,用于解决作业车间调度问题中的改进启发式问题,并设计了一种新颖的传递信息机制来加快解决方案评估,实验结果表明,该方法比现有的基于深度强化学习的方法在 JSSP 领域中具有更好的性能.
Nov, 2022
本文在最小化数据中心网络中的工作调度时间方面进行了深入研究,提出了一种基于深度强化学习的改进方法并将其扩展到多个服务器群集,结果表明,相比于传统的资源分配算法,深度强化学习方法在各种复杂环境中有着出色的性能表现。
Nov, 2017
本文介绍了一种利用深度强化学习应用的模因算法,用于解决实践中的双重资源约束柔性作业车间调度问题,并提出一种用于多标准优化的并行计算混合框架。通过实践证实,该框架使用 DRL 可以产生更好的结果,并优于传统方法。
Dec, 2022