通过混合训练方式,利用生成对抗网络以及精确似然估计评估方法,解决了最大似然训练无法评估生成质量的问题。
May, 2017
本文提出一种新的神经序列模型训练方法,其中目标函数由 α- 散度定义,并通过机器翻译任务的实验结果展示了其优越性。
Jun, 2017
本研究发现,即使具有类似的鲁棒性,经过对抗训练的模型在边际和平滑性方面可能具有显着不同的特征。在此基础上,我们研究了不同正则化器的影响,并发现平滑正则化器对最大化边缘的负面影响。基于分析结果,我们提出了一种名为桥接对抗训练的新方法,该方法通过将干净示例和对抗示例之间的差距进行桥接来缓解负面影响。我们提供理论和实证证据表明互补对抗训练提供了稳定且更好的鲁棒性,特别是对于大型扰动。
Aug, 2021
该文介绍了 Model based Adversarial Imitation Learning (MAIL)算法,为对抗性模仿学习问题提供了一种基于模型的方法,使用前向模型使该系统完全可微分,以训练出优秀的策略。在 MuJoCo 物理模拟器上测试后,该方法的初始结果超过了当前的最优状态。
Dec, 2016
该论文探讨了一种用于训练概率隐变量模型的变分方法,其中结合了最近引入的 Spread Divergence 方法,可以应用于使用任何 f-divergence 训练大量的潜变量模型。
Jul, 2019
本文介绍了将生成对抗网络应用于自然语言任务的困难之处,提出了一种新的最大似然增强离散生成对抗网络方法,并在多个数据集上进行实验证明了其优越性。
Feb, 2017
本文探讨了敌对训练对 DNN 的梯度提升及其可解释性的影响,发现敌对训练能够使得损失梯度更加符合人类感知,且提出了在测试准确性和损失梯度可解释性之间的权衡以及解决方案。
Mar, 2019
本文提出了一种新的通用领域敌对框架,利用变分 f - 分歧的特征进行领域自适应。基于此框架,推导出了具有重要修正的新算法框架,并证明了其在自然语言和计算机视觉数据集上优于现有的基线结果。
Jun, 2021
通过转换为可优化的对偶形式,将最大化部分替换为其对偶形式,能够更稳定且单调地优化目标函数,用于解决分布对齐问题。实验表明,对于线性鉴别器,对偶形式在平面上对齐合成点云和数字领域自适应问题中均具有更强的稳定性和单调性。
Jul, 2017
提出了一种基于边界损失的领域一般化方法(MADG 算法),该算法通过培训过程中的对抗性学习和学习域不变特征来有效地泛化到看不见的目标域,同时通过边界损失和 Rademacher 复杂性进行理论分析,实验证明在各种真实 DG 数据集的基准测试上表现一致。
Nov, 2023