定向多目标学习:简单且可证明的随机算法
研究随机多梯度 (SMG) 方法,将其作为经典随机梯度方法的扩展,用于解决具有不确定性数据的多目标优化问题。通过建立计算 Pareto 前沿的速率,将 SMG 方法帧入 Pareto-front 类型算法,可以鲁棒地确定 Pareto 前沿,并可应用于多个问题上,例如在机器学习中的逻辑二元分类。
Jul, 2019
通过引入自动学习范式,我们介绍了一种新的自动优化多目标优化问题的学习方法,并提出了一种多梯度学习优化(ML2O)方法,通过自动学习多个梯度以更新方向。通过引入新的守卫机制,我们提出了一种守卫多梯度学习优化(GML2O)方法,并证明了 GML2O 生成的迭代序列收敛到一个 Pareto 临界点。实验结果表明,我们学习的优化器在训练多任务学习神经网络方面胜过手动设计竞争对手。
Nov, 2023
本文研究了多目标优化问题中更一般且更现实的平滑损失函数类别,在神经网络中,提出了两种新颖的单循环算法 GSMGrad 和 SGSMGrad,以逼近在所有目标之间最大化最小改进的冲突避免方向。
May, 2024
本文研究了多目标学习(MOL)的动态权重算法如 MGDA 及其变种,并通过新的基于随机采样的 MGDA 算法,发现 MGDA 中的冲突避免更新方向会阻碍动态权重算法实现最优的 O(1/√n)种群风险,并展示了动态权重在优化、泛化和冲突避免三方面权衡的独特性。
May, 2023
提出一种新的联邦多目标学习 (FMOL) 框架,使多个客户端通过分布式和协作的方式解决多目标优化问题,同时保持其训练数据的私密性。该框架支持不同客户端之间的不同目标函数,将多目标优化的思想推广到联邦学习范式中,并提出两种新的联邦多目标优化算法,分别为联邦多梯度下降平均 (FMGDA) 和联邦随机多梯度下降平均 (FSMGDA)。这两种算法通过本地更新显著降低通信成本,并达到与单目标联邦学习的算法相同的收敛速度。大量实验证实了所提出的联邦多目标优化算法的有效性。
Oct, 2023
本文提出了用随机梯度下降的方法(MGDRec)来解决推荐系统中多目标优化问题,通过梯度规范化将不同度量指标作为一个整体优化,确保同时提升多个利益相关者的目标,避免了全梯度计算的缺点并且在提高准确率的同时也提升了产品的质量。
Dec, 2019
本研究提出了面向任务的多目标优化方法(Task Oriented MOO)来对抗对抗性示例生成过程中的问题进行优化,重点放在改进未达成目标的任务上,实现了对抗性训练的提高。
Apr, 2023
本文提出了一种通过深度强化学习和神经网络实现的多目标优化问题解决方案,其中采用分解思想将问题分解为一组标量优化子问题并针对每个子问题建立神经网络模型。通过邻域参数传递策略和 DRL 训练算法共同优化所有子问题的模型参数,并利用训练好的神经网络模型直接得到帕累托最优解。其中将多目标旅行商问题作为研究对象,使用 DRL-MOA 方法建模子问题为指针网络并与其他基准方法进行对比,在实验中表现出了较强的泛化能力和快速解决速度。
Jun, 2019
我们提出了一种名为 Stochastic Multiple Target Sampling Gradient Descent (MT-SGD) 的方法,用于从多个未归一化的目标分布中进行采样。通过逐渐调整中间分布的流向多个目标分布,使采样粒子向目标分布的联合高似然区域移动,此方法在多目标优化问题上获得了良好的表现。
Jun, 2022