线性分解函数回归
本文提出了一种广义的函数线性回归模型,包括函数线性模型、泊松回归和二项回归,并使用截断 Karhunen-Loeve 展开逼近预测过程进行降维,开发了一种适用于广义回归模型的渐近推断方法,其中截断参数随样本大小而增加,并应用控制变量的中心极限定理来建立维数的渐近增加,建立合适的 L^2 度量下的估计和真实函数之间的适当缩放距离的渐近正态性。
May, 2005
通过提出鲁棒性函数主成分和鲁棒线性回归结合的两步估计方法和一种可以减少估计曲率的转换,本研究在椭圆分布下证明了这些估计量的 Fisher 一致性和在温和正则性条件下的一致性,探究了这些估计量的影响函数,模拟实验表明,相比现有的方法,所提出的估计方法具有合理的效率、能够防止出现异常预测点、产生平滑的估计值,并表现良好。
Jun, 2018
本文提出了一种基于 Reproducing Kernel Hilbert Spaces 的估计方法,建立了在预测误差方面我们估计的最优收敛率的非线性函数回归模型,并讨论了在这些复杂模型中出现的计算挑战。同时提供了仿真及应用:在 2008 年金融危机期间的累积日内回报。
Aug, 2017
通过函数导数的方法,我们提出了 FAR(函数对齐回归)作为一种更好更高效的解决方案,以适应底层真实函数,并在 2 个合成数据集和 6 个基准数据集的 8 个广泛真实世界任务中,与其他 8 个竞争基线进行实证展示。
Feb, 2024
本文提出了一种因子方法来同时考虑模型选择和功能回归的视角,通过将预测向量分解为反映解释变量的共同因素和特定变异性的两个不相关随机分量,以包括主成分作为额外的解释变量在增广回归模型中,维度高于样本大小的线性回归问题中传统假设的稀疏向量参数是具有限制性的,模型选择程序可以用于估计增广模型的参数,并得出其理论性质和有限样本表现。
Feb, 2012
研究了用非参数函数类对输入协变量和输出响应共同进行回归的问题,并开发了一个新型的可扩展的非参数估计器,Triple-Basis Estimator,它可以在许多实例的数据集上运行,并在各种真实数据集中显示了速度预测和降低误差的显著改进。
Oct, 2014
使用深度前馈神经网络、广义线性模型和贝叶斯推断等方法,提出一种高精度的回归和分类方法,能够在原有方法中量化预测不确定性并进行变量选择,并在多种模拟和真实数据示例中得到了令人满意的结果。
May, 2018
研究了一类指数族模型,其规范参数被指定为未知的无限维斜率函数的线性泛函。建立了斜率函数估计的最优最小值收敛速率。构造了实现最优速率的估计量,这些估计量通过带有样本大小增长的参数的受限最大似然估计来构造。通过类似于 Le Cam 渐近等价理论的测度变换论证,消除了指数族模型非线性引起的偏差。
Aug, 2011
神经网络在绕过维度灾难的同时能够准确预测的基础是对特征学习的隐式维度缩减过程的理解,本文提出了递归特征机(RFM)作为一种能够显式地执行特征学习的算法,并且在稀疏线性回归等问题中展示了其维度缩减能力和优于标准算法的性能。
Jan, 2024