通过分布匹配进行到未见过的领域的泛化
本文针对无监督域适应学习中常见的假设提出了简单反例,证明了这些假设并不足以保证域适应的成功;提出了一种基于信息理论的弱化条件,并证明了任何试图学习不变表示的域适应方法的联合误差都存在一种基本的权衡;最后,通过实验验证了理论结果。
Jan, 2019
提出一种带精度约束的对抗特征学习方法,以解决领域内不变性策略对于将在不同领域中进行分类任务的泛化性能具有负面影响的问题,并在实验验证中证明了该方法的优越性。
Apr, 2019
本文研究使用先前为学习“公平表示”而开发的审查技术来解决域泛化问题。我们研究了$k$个域的对抗性损失函数及其渐近行为,并在此基础上获得了算法在以前未见过的域上良好最坏情况预测性能的充分条件。我们提供了完整的不变性特征描述,并为敌对不变域泛化提供了第一个形式化保证。
Jun, 2020
本论文提出了一种基于对抗生成网络的方法,通过学习域间变换的不变性来实现域不变表示的学习,以解决领域泛化问题,并在多个广泛使用的数据集上取得了与最先进模型竞争的结果。
Feb, 2021
本文提出了一种新的通用领域敌对框架,利用变分f-分歧的特征进行领域自适应。基于此框架,推导出了具有重要修正的新算法框架,并证明了其在自然语言和计算机视觉数据集上优于现有的基线结果。
Jun, 2021
本文提出了一个可以将错误分解成不同泛化方面的组成部分的域泛化算法评估框架,并将其扩展到捕捉实现不变性的各种失败类型。作者表明,域不变表示学习的策略存在两个问题,并提出了一个可行的调整分类器的方向。通过对Colored MNIST和Camelyon-17数据集的评估,作者发现泛化误差的最大贡献因素因方法、数据集、正则化强度甚至训练长度而异。
Nov, 2021
本文探究一种基于对抗训练的深度学习模型方法,称为Domainwise Adversarial Training (DAT),来解决深度学习模型在广义分布中失败的问题,该方法借鉴了Invariant Risk Minimization (IRM) 和Adversarial Training (AT)方法,并通过实验证明,我们提出的DAT方法在解决不同广义分布转移方案上表现均可。
Dec, 2022
本文研究对象识别中不变表示的泛化性,经过广泛实验,我们证明了不变模型学习到的非结构化潜在表示对分配偏移具有鲁棒性,因此使不变性成为有限资源环境中训练的理想属性。
Apr, 2023