BriefGPT.xyz
Ask
alpha
关键词
feature averaging
搜索结果 - 4
内核方法不变性具有可证明的严格泛化优势
通过 Derive a strictly non-zero 单一泛化受益 & effective dimension 分析 无限制域问题,研究 Feature averaging 引起的压缩群下不变性以及 kernel Hilbert sp
→
PDF
3 years ago
ICLR
提高对比表示学习中的变换不变性
本文主要介绍了强化对比学习得到的表示的不变性的方法,通过引入新的正则化器、特征平均法和可微分生成过程,对旋转等变性进行限制和控制,提高了表示在后续任务中的表现和鲁棒性。
PDF
4 years ago
神经网络中不变性的好处
本文分析比较了深度学习中两种广泛使用的处理不变性的方法:数据增强和特征平均,并针对其优缺点提出了相关理论结果和实验证明。其中,数据增强训练可以更好地估计风险和其梯度,并提供了 PAC-Bayes 泛化界;而特征平均可以在使用凸损失时降低泛化
→
PDF
4 years ago
现代数据增强的内核理论
本文提出了一个理论框架来理解数据增强技术,并从马尔科夫过程和核分类器两个方向进行分析。研究发现,数据增强可以通过一阶特征平均和二阶方差正则化组件来实现近似。本文还将理论应用于加速机器学习工作流,并证明其在预测变换效用和减少使用增强数据所需计
→
PDF
6 years ago
Prev
Next