基于深度多目标学习的可扩展 Pareto 前沿逼近
该研究采用 Pareto HyperNetworks(PHNs)实现了 Pareto-Front Learning(PFL),它通过一个超网络同时学习并输出 Pareto 前沿,并且相比于训练多个模型,该方法具有更高的运行时效率,并可以根据运行时的偏好选择特定模型。
Oct, 2020
我们提出了一种新的神经架构搜索算法,通过超网络对设备和多个目标进行参数化和条件化,实现了性能和硬件度量之间的权衡,并在一次搜索中获得多设备上的具有代表性和多样性的架构。在高达 19 个硬件设备和 3 个目标的大量实验证明了方法的有效性和可扩展性。最后,我们证明在不增加额外成本的情况下,我们的方法在不同搜索空间和数据集上优于现有的多目标优化神经架构搜索方法,包括 ImageNet-1k 上的 MobileNetV3 和机器翻译中的 Transformer 空间。
Feb, 2024
通过专家混合(MoE)模型融合的实用且可扩展的方法,本研究旨在有效学习大型神经网络的 Pareto 集,从而捕捉多个目标之间的权衡关系和大致近似整个 Pareto 集,并在低内存使用量的情况下提供可扩展性。
Jun, 2024
提出了一种使用动态损失函数来进行多目标训练神经网络以逼近 Pareto 前沿的新方法,在三个多目标问题上的实验表明,本方法无需预先指定权衡向量即可以返回分布在不同权衡方案上的输出,并且与现有技术相比具有更多的优势,尤其是对于非对称 Pareto 前沿。
Feb, 2021
本文提出了一种基于学习的方法,将分解式多目标优化算法 (MOEA/D) 从有限种群推广到模型,以近似整个 Pareto 集,为决策者提供灵活的决策,并展示实验结果。
Oct, 2022
本文通过神经组合优化的思想,提出了多目标组合优化问题的学习方法,模型可直接生成逼近帕累托前沿的解,证明了该方法在多目标问题上的有效性。
Mar, 2022
通过使用神经网络优化 Pareto 前沿上的最大最小距离,本论文提出了一种构建均匀分布 Pareto 目标的方法,缓解了之前多目标优化方法中所存在的有限多样性问题,并通过实验验证了该方法在生成高质量均匀 Pareto 目标方面的有效性以及优于现有最先进方法的鼓舞人心的性能。
Feb, 2024
使用梯度信息和基于策略的方法在多目标 MDP 中学习连续的 Pareto 边界序列,通过跟踪单个梯度上升运行来生成解决方案。
Jun, 2014
提出 PHN-HVI 框架,利用超网络从多样化的权衡偏好生成多个解并最大化这些解定义的超体积指标以提高 Pareto 前沿的质量,在多个 MOO 机器学习任务上实验结果表明,与基线方法相比,该框架显著提高了产生权衡 Pareto 前沿的性能。
Dec, 2022
提出了一种贝叶斯优化方法,用于在具有昂贵目标函数的多目标优化问题中确定最优解,通过交互方式自适应地估计 DM 的贝叶斯偏好模型,并利用获得的偏好信息进行主动学习,从而有效地在基准函数优化和机器学习模型的超参数优化问题中找到最优解。
Nov, 2023