该研究提出了最小化风险分类的方法来处理资料控制变量变化的问题,同时也发展了有效的技术,取得了更好的分类性能。
May, 2023
本文研究如何在模型错配偏差情况下学习线性预测模型。我们提出了一种样本重新加权方法,该方法可以减少输入变量之间的共线性,从而提高设计矩阵的条件,并与任何标准学习方法相结合,用于参数估计和特征选择,进而提高模型在不同分布数据集下的稳定性。
Nov, 2019
本文研究了在协变量转移下高维核岭回归,并分析了重要性重新加权的作用。我们首先推导了协变量转移下高维核的渐近展开式。通过偏差 - 方差分解,我们在理论上证明了重新加权策略可以降低方差。对于偏差,我们分析了任意或精心选择的规范化尺度对偏差的影响,表明偏差在不同的规范化尺度下表现得非常不同。在我们的分析中,偏差和方差可以由一个数据相关的正则化核的谱衰减特性来描述:原始核矩阵与附加的重新加权矩阵相关联,因此重新加权策略可以被视为一种数据相关的正则化以便更好地理解。此外,我们的分析还提供了协变量转移下核函数 / 向量的渐近展开,具有自己的研究兴趣。
Jun, 2024
统一分析了具有协变量转移的一般非参数方法在再生核希尔伯特空间下的理论,得出了收敛速度,并与现有文献中使用的最优结果相吻合。在合成和实际例子上进行的广泛数值研究证实了我们的理论发现,进一步说明了我们提出的方法的有效性。
Oct, 2023
本文研究了基于再生核 Hilbert 空间(RKHS)框架下的随机设计最小二乘回归问题,其中采用平均非正则化最小均方算法得到了最优收敛速率。
Aug, 2014
本文基于分布稳定性的新概念,对样本选择偏差校正进行了理论分析,研究了两种估计技术:基于簇的估计技术和核均值匹配,以及使用这些技术对几个数据集进行样本偏差校正实验。
May, 2008
使用分布式学习和最小二乘正则化方案,在再生核希尔伯特空间(RKHS)中对分块数据子集应用最小二乘正则化方案生成输出函数,以其平均值作为全局估计器或预测器,具有良好的 $L^2$ 度量和 RKHS 度量误差界限。在我们的积分算子方法中,通过运算符差分的新型二阶分解实现了分析,即使对于与一般核相关联的 RKHS 中的经典最小二乘正则化方案,我们也可以在文献中给出最佳的学习速率。
Aug, 2016
通过分析一类正则化 Bregman 散度的密度比率估计方法,我们得出新的有限样本误差界,并提出一种 Lepskii 类的参数选择原则,在不知道密度比率的规则性的情况下最小化误差界。在二次损失的特殊情况下,我们的方法能够自适应地达到极小极大误差率。
Jul, 2023
本文研究了在重现核希尔伯特空间中进行正则化学习情景时,如何在核函数的温和假设下获得最佳的错误率。研究发现,可以利用一种增长速度比 RKHS 规范中的标准二次增长慢得多的正则化项。
Jan, 2010
该研究提出了一种简单有效的方法,将概率分布嵌入再应用岭回归 算法来解决分布回归问题,同时证明该方法的稳定性和收敛速度,回答了 15 年来未解决的开放性问题,并涵盖了一系列相关的概率分布问题。
Feb, 2014