利用多样本超网络改善Pareto前沿学习
该研究采用Pareto HyperNetworks(PHNs)实现了Pareto-Front Learning(PFL),它通过一个超网络同时学习并输出Pareto前沿,并且相比于训练多个模型,该方法具有更高的运行时效率,并可以根据运行时的偏好选择特定模型。
Oct, 2020
提出了一种使用动态损失函数来进行多目标训练神经网络以逼近 Pareto 前沿的新方法,在三个多目标问题上的实验表明,本方法无需预先指定权衡向量即可以返回分布在不同权衡方案上的输出,并且与现有技术相比具有更多的优势,尤其是对于非对称 Pareto 前沿。
Feb, 2021
本研究提出一种直接在特征空间中根据偏好条件来调整神经网络的多目标优化方法,通过对解决方案进行惩罚来维持小角度到偏好向量的方法确保了良好分布的Pareto曲线,实验证明我们的Pareto前缘尽管计算速度显著更快,但也达到了业内最先进的质量,并展示了其可扩展性。
Mar, 2021
我们提出了一种以人为中心的交互式超参数优化方法,旨在从用户中提取优化指标并引导优化,通过学习比较不同帕累托前沿以选择适当的质量指标进行改进,在ML环境影响评估中验证了该方法的有效性。
Sep, 2023
通过使用超级变压器模型,Controllable Pareto front learning with Split Feasibility Constraints (SFC)在分割多目标优化问题中找到符合特定约束的最佳 Pareto 解决方案,并且证明了超级变压器模型在计算实验中相对于超多层感知器模型使 MED 误差减小。
Feb, 2024
通过数据驱动的偏好向量采样框架,灵活地调整采样分布参数,从而实现高概率从 Pareto 前沿位置采样偏好向量,并且通过使用混合狄利克雷分布来改进模型在不连通 Pareto 前沿中的性能。
Apr, 2024
通过基于超体积期望最大化的 Pareto 注意模型以及超体积残差更新策略,结合新颖的推理方法和局部子集选择方法,设计了一种名为 GAPL 的几何感知 Pareto 集学习算法,用于解决多目标组合优化问题,提高问题的分解能力和多样性增强。通过三个经典的多目标组合优化问题的实验结果表明,GAPL 算法在分解和多样性增强方面优于现有的神经基准模型。
May, 2024
本研究解决了现有帕累托集学习方法对帕累托前沿形状的先验知识依赖的问题。我们提出了一种无前提形状的帕累托集学习(GPSL)方法,通过将帕累托集的学习视为分布转化问题,克服了这一局限。实验结果表明,该方法在多种测试问题上表现优异,具有广泛的应用潜力。
Aug, 2024
本研究解决了多目标优化中同时优化所有目标的困难,提出一种优化偏好点的方法,实现帕累托前沿的均匀分布。通过双层优化问题的形式,我们的研究显示了该方法在复杂黑箱多目标优化问题中的有效性,推动了设计空间的灵活探索。
Aug, 2024
本研究解决了在大规模机器学习应用中,模型同时进行多目标微调的问题。提出的HyperDPO框架创新性地将直接偏好优化技术扩展至多目标微调设置,通过更有效的训练过程和灵活的后期控制来处理多种任务。实验表明,该框架在多任务场景下表现出色,对大规模机器学习的部署具有重要影响。
Oct, 2024