利用多样本超网络改善 Pareto 前沿学习
该研究采用 Pareto HyperNetworks(PHNs)实现了 Pareto-Front Learning(PFL),它通过一个超网络同时学习并输出 Pareto 前沿,并且相比于训练多个模型,该方法具有更高的运行时效率,并可以根据运行时的偏好选择特定模型。
Oct, 2020
提出了一种使用动态损失函数来进行多目标训练神经网络以逼近 Pareto 前沿的新方法,在三个多目标问题上的实验表明,本方法无需预先指定权衡向量即可以返回分布在不同权衡方案上的输出,并且与现有技术相比具有更多的优势,尤其是对于非对称 Pareto 前沿。
Feb, 2021
本研究提出一种直接在特征空间中根据偏好条件来调整神经网络的多目标优化方法,通过对解决方案进行惩罚来维持小角度到偏好向量的方法确保了良好分布的 Pareto 曲线,实验证明我们的 Pareto 前缘尽管计算速度显著更快,但也达到了业内最先进的质量,并展示了其可扩展性。
Mar, 2021
我们提出了一种以人为中心的交互式超参数优化方法,旨在从用户中提取优化指标并引导优化,通过学习比较不同帕累托前沿以选择适当的质量指标进行改进,在 ML 环境影响评估中验证了该方法的有效性。
Sep, 2023
该研究提出了层次化的个性化联邦学习算法(HPFL),将用户设备(UEs)分层聚类,从而解决移动边缘计算(MEC)网络中的异构性问题,并在全局模型与边缘模型聚合之间寻求轮数损失最小化和轮延迟最小化之间的权衡。
Mar, 2023
通过数据驱动的偏好向量采样框架,灵活地调整采样分布参数,从而实现高概率从 Pareto 前沿位置采样偏好向量,并且通过使用混合狄利克雷分布来改进模型在不连通 Pareto 前沿中的性能。
Apr, 2024
通过使用超级变压器模型,Controllable Pareto front learning with Split Feasibility Constraints (SFC) 在分割多目标优化问题中找到符合特定约束的最佳 Pareto 解决方案,并且证明了超级变压器模型在计算实验中相对于超多层感知器模型使 MED 误差减小。
Feb, 2024
通过专家混合(MoE)模型融合的实用且可扩展的方法,本研究旨在有效学习大型神经网络的 Pareto 集,从而捕捉多个目标之间的权衡关系和大致近似整个 Pareto 集,并在低内存使用量的情况下提供可扩展性。
Jun, 2024
通过提出一种新的具有多样性增强的神经启发式方法,我们能够从多目标组合优化问题的不同视角产生更多的 Pareto 解,并在经典的多目标组合优化问题上取得了更高的多样性 Pareto 前沿和卓越的整体性能。
Oct, 2023
通过进化好性采样 (Evolutionary Preference Sampling,EPS) 策略,将其融入到五种高级 Pareto Set Learning (PSL) 方法中,该论文提出了一种有效的样本优先选择向量,实现了对 Pareto 集合的快速收敛速度。
Apr, 2024