对抗正则化学习中的循环
本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。
Jun, 2020
通过研究正则化的无悔学习方法在有限游戏中的长期行为,我们发现玩家的实际策略如何随时间演变的理解非常有限,同时发现只有严格纳什均衡是稳定吸引的,进而揭示了玩家的日常对策的集合有理性的特性。我们进一步刻画了相应集合的稳定和收敛速率,并表明基于熵正则化的方法以几何速度收敛,而基于投影的方法在有限次迭代内收敛,即使是在带有被动反馈的并发奖励的情况下。
Nov, 2023
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255 的和 CIFAR-10 同样的表现。
Jul, 2019
通过采用具有一种新颖形式的经验回忆的正则化学习算法,我们表明,在多人博弈的普通形式中,该类自适应算法能够实现更快的收敛速率,并实现对近似效率和粗略相关均衡的收敛,并且,对这种类型算法应用的每个玩家,他们的个体后悔降至 $O (T^{-3/4})$,而其效用之和则以 $O (T^{-1})$ 的速度趋于近似最优,在与该类算法相对应的算法维持更快的速率的同时,我们还表明了该类中的任何算法均可通过黑匣子降至 $ ilde {O}(T^{-1/2})$ 的速率来抵抗对手。
Jul, 2015
使用因果不变性作为对抗训练模型的正则化原则,以缓解模型吸收专家数据中的虚假相关性,并在二维示例环境和高维机器人运动基准任务中展示了正则化公式的有效性。
Aug, 2023
神经网络的塑性缺失意味着在学习过程中网络训练变得更加困难。我们通过改进初始化技术、提出新的正则化策略以及保持梯度多样性来改善持续学习,并证明这些替代技术在不同的监督学习任务和模型结构上能够提高持续学习性能。
Jun, 2024
本文研究了 Continual Learning 中基于正则化的方法,通过理论推理和实验说明了这些方法在 class-incremental 场景下不能有效学习区分不同任务的类别,在多任务强化学习或用于 Continual Learning 的预训练模型中也存在重要后果。作者认为理解正则化策略的缺陷将有助于更有效地利用它们。
Dec, 2019
我们对基于正则化的连续学习在一系列线性回归任务中进行了统计分析,重点在于不同正则化项如何影响模型性能。我们推导了作为先验估计器的收敛速率,考虑了由矩阵值超参数索引的广义 l2 正则化算法族,包括最小范数估计器和连续岭回归作为特例。随着任务的增加,我们推导了广义 l2 正则化估计器的估计误差的迭代更新公式,从中确定了导致最佳算法的超参数。有趣的是,超参数的选择能够有效平衡前向和后向知识转移的权衡,并适应数据异质性。此外,我们明确地推导出最佳算法的估计误差,它与先验估计器的误差同阶。相比之下,我们的最小范数估计器和连续岭回归的下界显示了它们的子优性。我们的理论分析的副产品是提出了在连续学习中早停和广义 l2 正则化之间的等价性,这可能具有独立的研究价值。最后,我们进行实验以补充我们的理论。
Jun, 2024
最新机器学习模型存在脆弱性,而对抗训练是一种有效方法,本研究着重探究线性模型下的脆弱性,并对对抗训练在线性回归和其他正则化方法中的解决方案进行了比较分析。
Oct, 2023