多次运行下展示 Pareto 前沿可变性的 Python 工具
本研究提出一种直接在特征空间中根据偏好条件来调整神经网络的多目标优化方法,通过对解决方案进行惩罚来维持小角度到偏好向量的方法确保了良好分布的 Pareto 曲线,实验证明我们的 Pareto 前缘尽管计算速度显著更快,但也达到了业内最先进的质量,并展示了其可扩展性。
Mar, 2021
我们提出了一种基于贝叶斯优化的新方法,称为 Pareto front-Diverse Batch Multi-Objective BO (PDBO),用于解决多目标优化问题,其中我们可以评估一批输入并发现高质量和多样化的 Pareto 前沿。
Jun, 2024
该研究采用 Pareto HyperNetworks(PHNs)实现了 Pareto-Front Learning(PFL),它通过一个超网络同时学习并输出 Pareto 前沿,并且相比于训练多个模型,该方法具有更高的运行时效率,并可以根据运行时的偏好选择特定模型。
Oct, 2020
我们提出了一种新的神经架构搜索算法,通过超网络对设备和多个目标进行参数化和条件化,实现了性能和硬件度量之间的权衡,并在一次搜索中获得多设备上的具有代表性和多样性的架构。在高达 19 个硬件设备和 3 个目标的大量实验证明了方法的有效性和可扩展性。最后,我们证明在不增加额外成本的情况下,我们的方法在不同搜索空间和数据集上优于现有的多目标优化神经架构搜索方法,包括 ImageNet-1k 上的 MobileNetV3 和机器翻译中的 Transformer 空间。
Feb, 2024
提出了一种使用动态损失函数来进行多目标训练神经网络以逼近 Pareto 前沿的新方法,在三个多目标问题上的实验表明,本方法无需预先指定权衡向量即可以返回分布在不同权衡方案上的输出,并且与现有技术相比具有更多的优势,尤其是对于非对称 Pareto 前沿。
Feb, 2021
我们提供了一个综述,统一了多目标优化算法产生的解决方案的决策支持方法。我们提供这个主题的最新进展的概述,包括可视化方法、解决方案集挖掘、不确定性探索以及新兴研究方向,包括交互性、可解释性和伦理。我们综合了来自不同研究领域的这些方法,构建了一个独立于应用的统一方法。我们的目标是降低研究人员和实践者使用多目标优化算法的门槛,并提供新的研究方向。
Nov, 2023
本文介绍了一种使用 Tree-structured Parzen Estimators 采样策略和训练带异质噪声的 Gaussian Process Regression 元模型的多目标超参数优化方法,具有更好的超体积指标表现,并考虑到模型评估的不确定性。
Sep, 2022
通过使用神经网络优化 Pareto 前沿上的最大最小距离,本论文提出了一种构建均匀分布 Pareto 目标的方法,缓解了之前多目标优化方法中所存在的有限多样性问题,并通过实验验证了该方法在生成高质量均匀 Pareto 目标方面的有效性以及优于现有最先进方法的鼓舞人心的性能。
Feb, 2024
使用梯度信息和基于策略的方法在多目标 MDP 中学习连续的 Pareto 边界序列,通过跟踪单个梯度上升运行来生成解决方案。
Jun, 2014