强健不变表示中的领域通用性
本文介绍了一种基于核方法的算法Domain-Invariant Component Analysis,通过最小化域间差异并保留输入输出间的功能关系,学习一个不变转换来实现从已知相关领域到未曾接触领域的知识迁移。学习理论分析表明,减少差异可以提高分类器在新领域上的期望泛化能力。实验结果表明,DICA成功地学习了不变的特征并改善了分类器的性能。
Jan, 2013
我们提出了一种基于无监督自动学习的方法,可以学习出具有小样本复杂度的好的表示方法,在视觉对象识别等领域可以得到应用。通过无监督学习期间存储的一组模板,可以对每个图像块计算一种不变而又唯一的(有区分性的)签名,从而从很少的有标记例子中学习图像识别。
Nov, 2013
本文针对无监督域适应学习中常见的假设提出了简单反例,证明了这些假设并不足以保证域适应的成功;提出了一种基于信息理论的弱化条件,并证明了任何试图学习不变表示的域适应方法的联合误差都存在一种基本的权衡;最后,通过实验验证了理论结果。
Jan, 2019
研究表明,学习领域不变表示已成为非监督领域适应的一种流行方法,但其局限性主要在于非反演变换中丢失的信息以及领域不变性是一个过于严格的要求,本研究提出了一种权衡代价的一般化界限,并建议使用测量源域覆盖目标域范围的范围来提高性能。
Mar, 2019
本文研究使用先前为学习“公平表示”而开发的审查技术来解决域泛化问题。我们研究了$k$个域的对抗性损失函数及其渐近行为,并在此基础上获得了算法在以前未见过的域上良好最坏情况预测性能的充分条件。我们提供了完整的不变性特征描述,并为敌对不变域泛化提供了第一个形式化保证。
Jun, 2020
该研究介绍了两种机器学习建模方法——不变性随机特征和不变性核方法,其中不变性核方法包括全局平均池化的卷积神经网络的神经切比雪夫核。研究表明,建立不变性机制使得机器学习模型样本容量和隐藏层单元数量成指数降低,从而在保持测试误差不变的情况下提高统计效率。此外,研究表明,数据增广与无结构核估计等价于一个不变性核估计,具有相同的统计效率。
Feb, 2021
本文提出了一种基于概率框架和可分变贝叶斯推理的方法,将不确定性引入神经网络权重来处理由于目标域数据不可访问引起的域移位和不确定性挑战。实验结果表明,该方法在四个广泛使用的交叉域视觉识别基准测试中始终提供最先进的平均准确性。
May, 2021