基于广义差异的适应性算法与理论
本文介绍了一种针对域自适应问题的新型分布距离度量——偏差距离,并给出了不同损失函数的估计方法以及普遍推广界限。同时,本文也探讨了偏差距离减少和多种损失函数的最小化算法,并验证了其在不同应用场景的有效性。
Feb, 2009
我们提出了一种新的度量源域和目标域之间差异的度量器称为S-disc,利用源域标签计算效率和计算误差均有所提升,可用于比现有方法更紧密的推广误差界和提供更好的实验结果。
Sep, 2018
探讨了领域自适应中的二元分类问题,提出了一种新的 Neyman-Pearson 类似标准,并研究了一类广义的领域自适应问题,建立了在目标域中的最优分类结果,即使没有访问该域的标记数据。
Oct, 2018
本文提出一种基于二阶统计量(协方差)和源目标数据最大均值差异的双流卷积神经网络的非监督式深度领域适应方法, 通过实验表明,该方法在三个基准领域适应数据集上均可实现最先进的图像分类性能。
Jan, 2019
本研究从理论和算法角度探讨了无监督域自适应的问题,并引入了一种名为Margin Disparity Discrepancy的新测量方法,成功地将该理论转化为一种对抗学习算法,极大地提高了域自适应的状态。
Apr, 2019
本文提出了一种使用离线课程学习和代理分布的边际差异方法来消除标签噪声和特征噪声的领域自适应算法,并将其无缝转化为一个对抗网络进行联合优化,在存在噪声的环境下,与现有技术相比取得了超过10%的准确度提高。
Apr, 2020
本研究通过理论证明了 MMD 对源域和目标域内类距离进行最大化,并连带减少它们的方差以降低特征可分性;同时分析了内类距离和间类距离的关系,提出了一种新的基于判别性 MMD 的方法,实验表明其在几个基准数据集上的效果优于现有方法。
Jul, 2020
论文旨在设计主动学习策略,实现基于Lipschitz函数假设的领域自适应。通过对Mansour等人(2009)的先前工作进行补充,我们将源和目标分布之间的差异距离概念适应于假设类的最大化,来局限于在源域上执行准确标记的函数类。我们针对满足正则条件的一般损失函数导出了这种主动学习策略的推广误差边界,用于兰德马赫平均值和局部差异度量。从理论边界中推导出实用的K-medoids算法,可以处理大数据集的情况。我们的数值实验表明,在领域自适应的情况下,特别是在约十万个图像的大数据集上,所提出的算法与其他最先进的主动学习技术具有竞争力。
Mar, 2021
我们改进了Acuna等人提出的无监督领域自适应(UDA)的理论基础,通过改进他们基于f-差异度的不一致性,并引入一个新的度量,即f-域差异度(f-DD)。通过去除绝对值函数并结合一个缩放参数,f-DD产生了新的目标误差和样本复杂度界限,使我们能够恢复先前基于KL的结果,并弥合了Acuna等人(2021)提出的算法与理论之间的差距。利用一种定位技术,我们还开发了一个快速学习界限。实证结果表明,在流行的UDA基准测试中,基于f-DD的领域学习算法比以前的工作表现更优秀。
Feb, 2024