探究基于核回归的可推广性误差,解释了以 “简单函数” 为特征的归纳偏差,并表明更多数据可能会损害推广能力,还研究了与无限宽深度神经网络相关的旋转不变内核的数学性质。
Jun, 2020
针对具有无界方差的神经网络权重的后验推断问题,提供了一种可解释且计算高效的条件高斯表达方法。该方法可利用高斯过程机器进行可行的后验推断和不确定性量化。
May, 2023
本文研究无限宽深层神经网络和高斯过程的等价性,提出一种计算高斯过程协方差函数的有效方法,并使用该方法在 MNIST 和 CIFAR-10 上进行了贝叶斯推断,在网络宽度增加时,训练神经网络的准确率和 GP 预测的不确定性分别增加,而有限宽度训练网络越接近 GP,测试性能越好,GP 预测通常优于有限宽度网络的预测,最后将这些 GP 的性能与随机神经网络的信号传播理论相联系。
Nov, 2017
本研究结合随机神经网络和张量程序的概念,研究了神经网络的收敛性和梯度动态性,在多种不同体系下,从而表明了该框架不仅可以引导更强的高斯过程的设计,而且还可以深入理解现代架构中的 SGD 动态。
Feb, 2019
本文介绍了一种基于无限宽的贝叶斯表达学习界限的深层高斯过程方法以及基于这个界限的核方法的深度泛化技术。实验证实这种方法能够处理有限宽的高斯方法以及 NNs,这将有助于在大规模数据上应用这种方法。
Aug, 2021
通过对深度无限神经网络进行研究和分析,本文证明了深度无限层网络自然地与高斯过程和核方法相一致,并设计了编码这些网络信息的随机核函数。同时,本文还在不同规模下证明了稳定性结果,从而解释了这些网络在实践应用中具有的经验性成功。
Aug, 2015
本文研究了具有大规模参数的人工神经网络,并探究了正态性的校正、宽神经网络的演化控制、与高概率训练的全局最小值等。
Apr, 2023
本文提出了一种新的理论框架来分析深度学习的泛化误差,推导了代表性算法(经验风险最小化和贝叶斯深度学习)的新的快速学习率,并且发现在有限维度的近似模型中存在偏差 - 方差权衡。
May, 2017
本研究研究了深度神经网络和高斯过程之间的联系,指出在广泛的条件下,随着体系结构越来越宽,隐含的随机函数在分布上会趋于高斯过程,并使用最大平均偏差评估收敛速率。最后,将贝叶斯深度网络与高斯过程进行比较,并从文献中回顾了非高斯替代模型。
Apr, 2018
通过高斯过程和统计物理学的理论方法,我们得到了内核回归广义性能的分析表达式,这些表达式是关于训练样本数量的函数。我们的结果适用于具有广泛神经网络的情况,这是由于训练它们和使用神经切向核 (NTK) 的核回归之间的等效性。通过计算核的不同谱成分对总体泛化误差的分解,我们确定了一个新的谱原理:随着训练集大小的增长,核机和神经网络逐渐适应目标功能的更高频谱模式。当数据从高维超球面上的均匀分布中采样时,点积核,包括 NTK,显示出学习阶段,其中学习不同频率模式的目标函数。通过对合成数据和 MNIST 数据集的模拟,我们验证了我们的理论。
Feb, 2020