度量学习的鲁棒性和泛化性
本篇论文提出一种新的核函数以及一种新的编辑相似性模型,可以更好地优化距离和相似度函数,提高 k 近邻算法的性能,并在学习相似性时考虑到泛化能力与算法的稳定性, 解决了当前度量学习方法的局限性,为特征向量和结构化对象(如字符串或树)的度量学习提供了新方法。
Jul, 2013
本文利用 U 统计和 Rademacher 复杂性分析方法,针对度量学习和相似度学习,推导出了一种新的泛化边界方法,证明了 L1 范数正则化的稀疏度量学习和相似度学习可能比 Frobenius 范数正则化的模型具有更好的边界效果。
Jul, 2012
本文提出了一种新的度量学习方法,将其框架构建为学习一种稀疏组合的本地判别度量,这种度量可以从训练数据中生成,从而可以自然地推导出全局、多任务和本地的度量学习公式。通过数理分析和实验验证,本方法比现有方法具有更少的参数和更好的可扩展性,从而提高了分类性能。
Apr, 2014
通过数据相关的广义界限,证明了健壮性意味着泛化。我们提出了几个例子,包括 Lasso 和深度学习,证明了我们的界限是明显优于以前的界限的。技术创新包括针对多项式随机变量的改进的浓缩界限。
Jun, 2022
研究三种不同强度的泛化理论 —— 稳健泛化、差分隐私和完美泛化的关系,并证明了每个假设类都可以在稳健泛化的情况下进行 PAC 学习,具有相近的样本复杂度。
Feb, 2016
本文研究了基于在线学习的随机方法的泛化特性,提出了一种通用的解耦技术,可以提供基于 Rademacher 复杂度的泛化误差界限,并进一步分析了一类内存效率的在线学习算法。
May, 2013
本文研究了在高维数据情况下的度量学习问题,提出了一种基于 LogDet 距离的学习线性变换的框架,并证明了它可以被有效地核化以学习任意高维空间中的度量,同时还可以将广泛类别的凸损失函数类似地核化,以扩展度量学习的潜在应用。同时,我们证明了这种方法在计算机视觉和文本挖掘等真实世界问题中的有效性。
Oct, 2009