多目标优化的多梯度学习优化
本文提出了基于方向的多目标问题、Stochastic Direction-oriented Multi-objective Gradient Descent 和 SDMGrad-OS 算法,实现了多任务学习和强化学习中的多目标优化。
May, 2023
提出一种新的联邦多目标学习 (FMOL) 框架,使多个客户端通过分布式和协作的方式解决多目标优化问题,同时保持其训练数据的私密性。该框架支持不同客户端之间的不同目标函数,将多目标优化的思想推广到联邦学习范式中,并提出两种新的联邦多目标优化算法,分别为联邦多梯度下降平均 (FMGDA) 和联邦随机多梯度下降平均 (FSMGDA)。这两种算法通过本地更新显著降低通信成本,并达到与单目标联邦学习的算法相同的收敛速度。大量实验证实了所提出的联邦多目标优化算法的有效性。
Oct, 2023
研究随机多梯度 (SMG) 方法,将其作为经典随机梯度方法的扩展,用于解决具有不确定性数据的多目标优化问题。通过建立计算 Pareto 前沿的速率,将 SMG 方法帧入 Pareto-front 类型算法,可以鲁棒地确定 Pareto 前沿,并可应用于多个问题上,例如在机器学习中的逻辑二元分类。
Jul, 2019
本研究提出了面向任务的多目标优化方法(Task Oriented MOO)来对抗对抗性示例生成过程中的问题进行优化,重点放在改进未达成目标的任务上,实现了对抗性训练的提高。
Apr, 2023
本文研究了多目标学习(MOL)的动态权重算法如 MGDA 及其变种,并通过新的基于随机采样的 MGDA 算法,发现 MGDA 中的冲突避免更新方向会阻碍动态权重算法实现最优的 O(1/√n)种群风险,并展示了动态权重在优化、泛化和冲突避免三方面权衡的独特性。
May, 2023
本文提出了一种多目标优化的多任务学习方法,通过迭代传递模型参数在优化过程中解决存在冲突的多个任务,并在图像分类、场景理解和多目标回归问题中进行了实验验证,结果显示该方法显著提升了发现满足 Pareto 优化的模型集合的状态,尤其在大规模图像数据集上的实验中,比现有技术取得了近两倍的超体积收敛速度。
Mar, 2024
本文提出了一种通过深度强化学习和神经网络实现的多目标优化问题解决方案,其中采用分解思想将问题分解为一组标量优化子问题并针对每个子问题建立神经网络模型。通过邻域参数传递策略和 DRL 训练算法共同优化所有子问题的模型参数,并利用训练好的神经网络模型直接得到帕累托最优解。其中将多目标旅行商问题作为研究对象,使用 DRL-MOA 方法建模子问题为指针网络并与其他基准方法进行对比,在实验中表现出了较强的泛化能力和快速解决速度。
Jun, 2019
本论文将多任务学习作为多目标优化来解决,并提出了一种基于梯度下降优化算法的上限边界,证明了在现实情况下优化这个上限边界将得到帕累托最优解,在多任务深度学习问题上应用我们的方法表现出比最近的多任务学习公式或每项任务训练的模型更高的性能。
Oct, 2018
本研究论文总结了最近学习型多目标进化算法在解决不同尺度多目标优化问题中的进展和挑战,并提供了四个有吸引力的方向,即用于环境选择的可学习进化鉴别器,用于繁殖的可学习进化生成器,用于函数评估的可学习进化评估器,以及用于共享或重复使用优化经验的可学习进化传输模块,作为这一领域的努力的参考。
Jun, 2022