随机特征和 NTK 特征的稳定性、泛化性和隐私性:精确分析
本文研究了有关深度学习的两个问题:对抗攻击与深度学习的泛化能力。以 Neural Tangent Kernel(NTK)为主要理论,探究有限宽度下的 kernel learning 与 lazy training,结果表明标准训练与对抗训练会有不同的 NTK,最终可以得到一个在 CIFAR-10 数据集上具有 76.1% 鲁棒性的分类器。
Oct, 2022
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
Jul, 2020
本文通过缩放定律的角度研究神经切向核 (NTK) 及其经验性变量,发现它们无法完全解释神经网络泛化的重要方面。通过实际设置,我们展示了有限宽度神经网络相对于其对应的经验和无穷 NTK 起始时具有显着更好的数据缩放指数,并证明了 NTK 方法在理解自然数据集上真实网络泛化的局限性。
Jun, 2022
本文通过对神经网络优化过程中的经验性探索,发现神经切向核(NTK)在实际应用中会随着优化而发生重要的和有意义的变化,尤其是它的前几个特征向量会朝向神经网络所学习的目标函数,并成为神经网络输出的基础函数
Oct, 2019
该论文通过对神经网络和它们的线性近似在不同任务上的行为进行系统比较,提供了强有力的实证证据来确定近似的实际有效性,发现网络并不总是表现优于其核近似,并揭示了性能差距很大程度上取决于网络架构、数据集大小和训练任务。此外,研究发现网络在训练过程中出现过拟合的原因是其核的演化。由此揭示了一种新的隐式偏差现象。
Jun, 2021
我们提出了一种基于神经切向核函数(NTKs)的理论方法来研究神经网络在捕捉精确知识方面的潜在机制,并发现激活函数的选择会影响特征提取,此外我们还发现自注意力模型和 CNN 模型在学习 n 元语法方面的局限性,而基于乘法的模型则在该领域表现出色。我们的研究提供了对大型语言模型基本组件在角色和能力方面的深入理解,从而推动对这些复杂系统的更广泛理解。
Oct, 2023
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
本论文研究了在球面上进行方差损失下的未知函数 f * 的学习问题,并研究了神经切向核模型和 Rahimi-Recht 的随机特征模型等两种流行的模型,以及核岭回归。同时,论文探讨了样本数量有限或由于关于度数和样本数的适当估计而未能实现最优化性能时的情况,以及核方法随机选取核函数时的情况。
Apr, 2019