递归特征机器的特征缩放
神经网络在绕过维度灾难的同时能够准确预测的基础是对特征学习的隐式维度缩减过程的理解,本文提出了递归特征机(RFM)作为一种能够显式地执行特征学习的算法,并且在稀疏线性回归等问题中展示了其维度缩减能力和优于标准算法的性能。
Jan, 2024
本文讨论基于随机傅里叶核(RFF)的回归模型的精确渐进特征,研究表明在数据样本数、数据维度和特征空间维度等三个因素中为大且可比较的实际场景下,随机 RFF Gram 矩阵不再收敛于著名的极限高斯核矩阵而是有一个可处理的行为,双重下降测试误差曲线从这种相变行为中得出,该结果不依赖于数据分布的强假设。
Jun, 2020
本文探讨了随机特征模型和核岭回归之间的联系,并发现了有限 RF 取样的隐式正则化效应,同时对比了使用 KRR 预测器的风险和使用 RF 预测器的平均风险并获得了它们之间差异的明确界限,最终在实验中发现了平均 λ-RF 预测和 tilde λ-KRR 预测器之间的极好一致性。
Feb, 2020
近期的机器学习进展通过使用过参数化的模型训练到接近训练数据的插值来实现。 通过双下降现象的展示,已经证明参数数量是模型复杂性和泛化能力的劣质指标。 这引发了一个问题,即了解参数化对这些模型的性能的影响。 本文以随机特征岭回归(Random Feature Ridge Regression)为例进行调查。
Mar, 2024
本研究提出了一种名为基于随机森林多轮筛选 (RFMS) 的新方法,它可以有效地应用于多通道生物特征数据的身份验证问题,并在许多方面具有行业标准特征筛选方法的优势。
May, 2023
在低噪声假设下,使用优化的特征映射的支持向量机在训练集(样本数为 m)上能够实现比 O (1/√m) 更快的学习速率,此方法将随机特征方法从最小二乘损失扩展到 0-1 损失,并且我们发现加权特征选择方法能帮助提高随机特征支持向量机在合成数据集上的性能。
Sep, 2018
该研究介绍了一种新颖的模型 RFVM(相关特征向量机),用于解决在处理临床前瞻性研究时的大数据问题。实验证明,RFVM 能够在准确分类的同时提供最紧凑的数据子集。
Feb, 2024
在大规模回归问题中,通过通过定义核函数的谱密度,利用 Monte Carlo 抽样生成有限的样本集合以形成近似的低秩高斯过程(GP),随机 Fourier 特征(RFFs)显著提高了 GP 的计算可扩展性和灵活性。然而,RFFs 在核逼近和贝叶斯核学习中的有效性取决于能否轻松地采样核谱测度并生成高质量的样本。我们引入 Stein 随机特征(SRF),利用 Stein 变分梯度下降,可以用于生成已知谱密度的高质量 RFF 样本,以及灵活高效地近似传统上非分析的谱测度后验。SRFs 只需要评估对数概率梯度,即可同时进行核逼近和贝叶斯核学习,从而在传统方法上实现更好的性能。通过将其与基准模型在核逼近和众所周知的 GP 回归问题上进行比较,我们经验证明了 SRF 的有效性。
Jun, 2024
本文提出了一种用于稀疏数据预测的新型模型 Neural Factorization Machine(NFM),将因子分解机(Factorization Machines,FM)中二阶特征交互的线性性与神经网络中高阶特征交互的非线性相结合,实验证明 NFM 在深度学习方法 Wide&Deep 和 DeepCross 的基础上,使用更浅的结构却提供更好的性能,在实际中更易于训练和调节。
Aug, 2017
本研究通过对学习 Fp,π 和 Barron 空间中的函数这一问题的探讨,揭示了这些空间的逼近和估计可以在某种意义上等价。这使我们能够将重点放在逼近和估计这一较容易的问题上,当研究两个模型的泛化时。此外,我们通过两个具体的应用程序全面分析了我们的二元性框架的灵活性。
May, 2023