何时可以使用神经切线核和主成分分析近似广义对比模型?
本文阐述了对比学习的核函数学习方法,将其应用于 PCA 表征中,证明其具有良好的泛化性能。研究基于正对偶马尔科夫链的特征值分解方法,经实验证明表征的准确性取决于核函数参数和增强强度。
Oct, 2022
本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
通过高斯过程和统计物理学的理论方法,我们得到了内核回归广义性能的分析表达式,这些表达式是关于训练样本数量的函数。我们的结果适用于具有广泛神经网络的情况,这是由于训练它们和使用神经切向核 (NTK) 的核回归之间的等效性。通过计算核的不同谱成分对总体泛化误差的分解,我们确定了一个新的谱原理:随着训练集大小的增长,核机和神经网络逐渐适应目标功能的更高频谱模式。当数据从高维超球面上的均匀分布中采样时,点积核,包括 NTK,显示出学习阶段,其中学习不同频率模式的目标函数。通过对合成数据和 MNIST 数据集的模拟,我们验证了我们的理论。
Feb, 2020
通过对无标签数据进行对比学习,可以生成低维的特征向量表示,这些特征向量可以作为输入来提高有标签数据上的监督学习系统的准确性,并探讨了对比损失函数的最小化器及其与以往学习无标签数据方法的关系。
Sep, 2023
研究神经网络中的共轭内核和神经切向内核的特征值分布,证明在随机初始化权重、具有近似成对正交性的输入样本和网络宽度与样本大小成线性增长的渐近情况下,CK 和 NTK 的特征值分布会收敛到确定性极限,并描述了 CK 和 NTK 的极限情况,其中 CK 的极限情况是通过在隐藏层之间迭代 Marcenko-Pastur 映射描述的。
May, 2020
该研究表明:(a) 在无穷宽度神经网络 (NNs) 上应用 l2 损失 (通过梯度下降法) 训练,并将学习率设置为无穷小,与 (b) 基于所谓的神经切向核 (NTK) 的核回归是相等的。在此基础上,对 NTK 进行高效计算的算法已被提出,表明 NTK 在低数据任务上表现良好。
Oct, 2019
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
本文通过对神经网络优化过程中的经验性探索,发现神经切向核(NTK)在实际应用中会随着优化而发生重要的和有意义的变化,尤其是它的前几个特征向量会朝向神经网络所学习的目标函数,并成为神经网络输出的基础函数
Oct, 2019
本文研究了对比学习的等价性和理论基础,并建立了对比学习与谱聚类算法之间的等价性。同时,我们探讨了多模态对象是如何相似地嵌入在一起的,并提出了一种新的核混合损失,相较标准高斯核在几个视觉数据集上有更好的表现。
Mar, 2023
该论文通过对神经网络和它们的线性近似在不同任务上的行为进行系统比较,提供了强有力的实证证据来确定近似的实际有效性,发现网络并不总是表现优于其核近似,并揭示了性能差距很大程度上取决于网络架构、数据集大小和训练任务。此外,研究发现网络在训练过程中出现过拟合的原因是其核的演化。由此揭示了一种新的隐式偏差现象。
Jun, 2021