随机特征回归模型的最优激活函数
本文研究无法可知函数的学习问题,主要贡献在于使用高斯数据对这种学习问题进行精确的渐近分析。在特征矩阵的温和正则条件下,本文提供了在低参数与高参数模式下渐近的训练和泛化误差的精确刻画。该分析适用于一般的特征矩阵、激活函数和凸损失函数家族。数值结果验证了我们的理论预测,表明我们的渐近发现与所考虑的学习问题的实际表现非常符合,即使在中等维度下也是如此。此外,它们揭示了正则化、损失函数和激活函数在学习中缓解 “双下降现象” 中所发挥的重要作用。
Aug, 2020
通过对等效模型的参数进行研究,本文通过优化非线性激活函数,实现了对给定监督学习问题的改善,验证了这些优化的非线性函数在回归和分类问题中比常用的非线性函数(如 ReLU 函数)具有更好的泛化性能,并且缓解了所谓的 “双峰下降” 现象。
Sep, 2023
通过信息熵的角度,本研究理论上证明了存在具有边界条件的最差激活函数,提出了基于熵的激活函数优化方法(EAFO),并从 ReLU 中推导出了一种新的激活函数 CRReLU。实验证明 CRReLU 在深度神经网络中表现优异,并在大型语言模型细调任务中展现出与 GELU 相比的卓越性能,显示其广泛的实际应用潜力。
May, 2024
我们研究了随机特征岭回归(RFRR)的泛化性能,并提供了其测试误差的一般确定性等价物。具体而言,在一定的集中性质下,我们表明测试误差可以用一个闭式表达式来良好近似,该表达式仅依赖于特征映射的特征值。值得注意的是,我们的近似保证是非渐近的、乘性的,并且与特征映射的维度无关,允许无限维特征。我们预期这个确定性等价物在我们的理论分析之外广泛适用,并从各种真实和合成数据集上对其预测进行了实证验证。作为一个应用,我们根据谱和目标衰减的标准幂律假设导出了尖锐的超额误差率。特别地,我们提供了实现最优极小极大误差率所需特征数量的紧密结果。
May, 2024
本文介绍了一种基于 Erf 函数和 ReLU 的新型激活函数 'ErfReLU',并比较了其与其他 9 种可训练激活函数在 CIFAR-10,MNIST 和 FMNIST 基准数据集上应用于 MobileNet,VGG16,ResNet 模型的性能分析。
Jun, 2023
提出了一种新的混合随机特征 (HRFs) 类用于线性化 Softmax 和高斯核,通过波谷转换并利用随机特征来提供更精确的核估计,具有较强理论保证,经过实证评估,在点核估计实验中获得了好的结果,同时还能应用在数据聚类以及机器学习下游应用中。
Oct, 2021
基于随机算法和集合卡尔曼反演的随机特征回归 (RFR) 的随机目标函数为矢量值随机特征的超参数优化引入了一种新的黑盒方法,该方法在多个对超参数选择敏感的问题中展示了成功,包括两个全局敏感性分析、在混沌动力学系统中进行集成和从大气动力学解决贝叶斯反问题。该方法为 RFR 提供了自动优化超参数的潜力。
Jun, 2024
本文提出了一种新颖的集合方法,称为 RAFs Ensemble,通过为每个神经网络提供不同的(随机)激活函数来改进其集合多样性以进行不确定性量化,并在一系列回归任务中证明了 RAFs Ensemble 在合成和实际数据集上优于最先进的集合不确定性量化方法。
Feb, 2023
近期的机器学习进展通过使用过参数化的模型训练到接近训练数据的插值来实现。 通过双下降现象的展示,已经证明参数数量是模型复杂性和泛化能力的劣质指标。 这引发了一个问题,即了解参数化对这些模型的性能的影响。 本文以随机特征岭回归(Random Feature Ridge Regression)为例进行调查。
Mar, 2024