使用深度 ReLU 网络进行成对学习的最优估计
本文研究了在线学习算法中带有成对损失函数的泛化性能,并提出了一种数据依赖性较小的界限来衡量在线学习算法的平均风险产生的序列的模型偏差,同时针对常见的机器学习问题,如基于排名和监督度量学习提出了实际应用案例。
Jan, 2013
本文探讨如何在高斯分布下计算最适合的 ReLU 模型,证明了学习受高斯边缘影响下的 ReLU 模型的难点,并提出了一种利用噪声半空间学习算法的近似最优解法。
Nov, 2019
本文研究了基于在线学习的随机方法的泛化特性,提出了一种通用的解耦技术,可以提供基于 Rademacher 复杂度的泛化误差界限,并进一步分析了一类内存效率的在线学习算法。
May, 2013
本文中,我们在非线性神经网络学习问题上,通过精确量化每个训练算法所需的最小训练样本数量,以保证目标类中包含或由预定义结构的 ReLU 神经网络的高精度,从而证明了在非常一般的假设下,训练样本的最小数量随着网络结构的深度和输入维度呈指数级增长。
May, 2022
基于经验风险最小化与 l_1 正则化的深度神经网络估计器,我们推导出其在回归和分类(包括多类别)中的过量风险的一般界限,并证明它在各种函数类的整个范围内几乎达到最小值(取对数因子)。
Nov, 2023
我们通过利用真实度量(目标函数)的特定结构,构建了一个近似真实度量的结构化深层 ReLU 神经网络,从而研究了度量和相似性学习的泛化性能,推导了度量和相似性学习问题的过度泛化误差界限,并通过仔细估计逼近误差和估计误差,得出了一个最佳的过度风险率,这是首次的度量和相似性学习的过度泛化错误分析,此外,我们还研究了具有一般损失的度量和相似性学习的真实度量的属性。
May, 2024
研究了使用最小范数两层 ReLU 网络进行有噪单变量回归时的渐近过拟合行为,发现对于 L1 损失和 p<2 的任何 Lp 损失缓解了过拟合,但对于 p≥2 却是灾难性的。
Jul, 2023
本文研究了在低维多條件上 H"{o} lder 函数的非参数回归问题,并使用深层 ReLU 网络实现,研究结果表明深层 ReLU 网络具有适应低维几何结构的能力,可快速收敛于数据固有维度,进而解决高维数据的低维几何结构问题。
Aug, 2019
本文提出了一种新的随机梯度下降算法,利用随机噪声扰动,无需任何假设于数据分布、网络大小和训练集大小,就能够证明地达到单隐藏层 ReLU 网络的全局最优性,同时提出了一些一般的泛化保证,此外,数值测试结果也验证了算法和理论的实用性。
Aug, 2018