通过提出一种新的具有多样性增强的神经启发式方法,我们能够从多目标组合优化问题的不同视角产生更多的 Pareto 解,并在经典的多目标组合优化问题上取得了更高的多样性 Pareto 前沿和卓越的整体性能。
Oct, 2023
这项研究提出了一种名为 MOPN 的多目标指针网络单模型深度强化学习框架,用于有效解决多目标组合优化问题,在不同应用场景下深度增强学习与代表性模型、迁移学习等策略相结合下取得了更好的性能。
Apr, 2022
Moco 是一个完全可学习的元优化器,使用基于当前搜索状态提取的特征来更新解构建过程,适应不同的计算预算,表现优于其他方法。
Feb, 2024
本文采用元学习技术来在多种任务中训练一个模型,以优化适应新任务的能力,从而提高两个最先进的模型的泛化能力,实验表明该方法在两个 CO 问题上都有显著改善。
Jun, 2022
本文通过神经组合优化的思想,提出了多目标组合优化问题的学习方法,模型可直接生成逼近帕累托前沿的解,证明了该方法在多目标问题上的有效性。
Mar, 2022
本文提出了一种通过深度强化学习和神经网络实现的多目标优化问题解决方案,其中采用分解思想将问题分解为一组标量优化子问题并针对每个子问题建立神经网络模型。通过邻域参数传递策略和 DRL 训练算法共同优化所有子问题的模型参数,并利用训练好的神经网络模型直接得到帕累托最优解。其中将多目标旅行商问题作为研究对象,使用 DRL-MOA 方法建模子问题为指针网络并与其他基准方法进行对比,在实验中表现出了较强的泛化能力和快速解决速度。
Jun, 2019
使用 LaMOO 优化算法在神经架构搜索任务中取得了超过 200% 的样本效率提升,并在 CIFAR10 数据集上以仅 600 个搜索样本实现了 97.36% 的准确率和仅 1.62M 参数,以及在 ImageNet 数据集上仅使用 522M 浮点操作数实现了 80.4% 的 top-1 准确率。
Jun, 2024
本文介绍了一种名为 MO-DEHB 的多目标优化器,它可用于同时优化复杂不同的性能指标,包括准确性、延迟和算法公平性,并在各种任务中均有良好的表现。
May, 2023
本文介绍了一种新的算法,通过任务相似性来加速多目标超参数优化 (MO-TPE)。研究表明该算法可在表格 HPO 基准测试中加速 MO-TPE, 同时获得了 AutoML 2022 比赛的第一名。
Dec, 2022
MEMENTO 是一种基于记忆的强化学习方法,可以在推理时间动态更新行动分布,提高神经求解器的适应性和性能。