通过基于 RL 的初始化加速精确的组合优化 —— 以调度为例的案例研究
使用深度神经网络的合成图像数据集,本文提出了一种基于强化学习的调度框架 RESPECT,该框架学习最优化算法的行为并生成几乎最优的调度结果,同时解决了边缘计算系统中资源受限计算图的调度优化问题。
Apr, 2023
我们提出了一种基于注意力机制的强化学习方法来解决作业车间调度问题,通过将策略梯度强化学习与改进的 Transformer 架构相结合,我们的方法在解决大规模问题上表现优于最近的研究和广泛采用的启发式规则。
Jan, 2024
深度强化学习 (DRL) 在机器调度问题中的方法和应用进行了全面的综述和比较,发现 DRL 方法在计算速度和生成接近全局最优解方面表现优于其他方法,但面临着处理复杂操作约束、多目标优化、泛化性、可扩展性、解释性和鲁棒性等限制,解决这些挑战将是未来研究中的关键焦点。该论文为研究人员评估当前 DRL 机器调度领域的现状以及发现研究空白提供了宝贵的资源,同时也帮助专家和从业者选择适合生产调度的 DRL 方法。
Oct, 2023
本文介绍一种使用强化学习训练图神经网络求解单人游戏定义的图组合优化问题的新框架,可以处理最小生成树、最短路径、旅行商问题和车辆路径问题等一系列问题,该方法可在线性运行时间内输出近似解,并且能够推广到多种情况,包括 NP 困难的问题和真实世界的图。
Jun, 2020
本文介绍了一种基于深度强化学习和约束编程的混合算法,应用于复杂的组合优化问题,并在实验中成功运用于旅行商问题和投资组合优化问题,表现优于单独的深度强化学习和约束编程算法,同时也达到了与工业级求解器相竞争的水平。
Jun, 2020
通过使用一个可微分的组合调度框架和 Gumbel-Softmax 可微分取样技术,本文提出了一种解决资源受限调度问题的新方法,扩展了线性规划的应用范围,并通过对比评估结果表明,在优化效率方面,超过了 CPLEX、Gurobi 和 CP-SAT 等现有解决方案的能力。
Jun, 2024
通过自动学习调度规则,本文提出了一种原创的端到端深度强化学习方法来解决作业调度的 NP - 难度问题,该技术受到自然语言编码器 - 解码器模型的启发,可在最小干预下用于处理其他不同的优化作业调度任务。研究结果表明,我们在利用优先调度规则方面超过了许多传统方法,并且在最先进的深度强化学习方法中取得了有竞争力的结果。
Aug, 2023
本文提出了一种基于约束编程(CP)和强化学习(RL)的端到端解决调度问题的方法,通过神经网络架构和训练算法,仅需要一些调度问题的约束编码和一组小实例,我们的方法在七个 JSSP 数据集上进行了评估,并展示了其在相同时间限制内找到比静态 PDRs 和 CP 求解器更高质量的解决方案的能力。
Jun, 2023
本文提出一种基于强化学习的方法用于解决组合优化中的数据标记和推理延迟问题,并使用蒙特卡罗树搜索和价值网络提高策略网络的性能表现。作者在四种不同类别的组合优化问题上进行了评估,结果表明该方法相较于现有机器学习和启发式方法有更优的性能表现。
Jun, 2022
本文提出了一种基于图神经网络的深度强化学习方法,用于解决作业车间调度问题中的改进启发式问题,并设计了一种新颖的传递信息机制来加快解决方案评估,实验结果表明,该方法比现有的基于深度强化学习的方法在 JSSP 领域中具有更好的性能.
Nov, 2022