关键词non-parametric regression
搜索结果 - 11
- 使用公共特征的本地隐私估计
本文首次探索在公共特征下的局部差分隐私(LDP)学习,提出半特征 LDP 概念,证明了半特征 LDP 下的非参数回归的最小最大收敛速度明显降低,然后介绍了 HistOfTree 估计器,完全利用公共和私有特征信息,在理论上实现最小最大收敛速 - 我们需要多少个神经元?使用梯度下降算法训练的浅层网络的精细分析
我们在神经切向核(NTK)范围内对使用梯度下降(GD)训练的两层神经网络的泛化性质进行分析,对于早停止的 GD,我们得到了在再现核希尔伯特空间的非参数回归框架中已知为最小化最优的快速收敛速度;在此过程中,我们准确地跟踪了泛化所需的隐藏神经元 - SMIXS: 基于非参数混合回归聚类的新型高效算法
本研究提出了一种利用自然立方样条和高斯混合模型相结合的新型非参数回归聚类算法,即 SMIXS,通过引入计算速度的优化、稳定方差估计器和新的平滑参数估计过程来解决算法中存在的参数估计的高计算复杂度和数值不稳定方差估计器问题,并在合成数据集上展 - 使用条件直方图的等形预测
本文开发了一种符合性方法,用于计算自适应于倾斜数据的非参数回归预测区间,利用黑盒机器学习算法用直方图估计结果的条件分布,将它们转化为具有近似条件覆盖的最短预测区间,数值实验表明,与最先进的相关方法相比,这些结果在有限样本情况下可以得到较好的 - 使用非参数回归模型估算个体治疗效果:一篇综述
本文旨在探讨在观察性或非全随机数据上进行因果推断的问题以及利用统计学习工具来解决这些问题。我们介绍了现有最先进的合适的框架,可通过非参数回归模型估计个体处理效应,并提出了模型选择问题,旨在利用某些方法对三个不同模拟研究的效果进行说明。最后, - 稀疏深度学习的不确定性量化
本文探讨了深度学习中的不确定性矫正问题,提出并验证了在非参数回归任务中使用稀疏深度 ReLU 结构进行贝叶斯推断的理论模型,强调了其在统计推断方面的优势。
- 具有线性加速的分散非参数回归的最优统计速率
本研究采用分布式梯度下降来分析多智能体分散非参数回归,从精确损失函数的角度来研究学习性能,当 i.i.d 样本分配给智能体时,我们发现如果智能体拥有足够多的样本数量并且沟通延迟足够小,则分布式梯度下降在带最优统计速率的同时取得线性加速,并且 - 普通最小二乘回归的更快、更好、更坚强的收敛速率
提出一种基于平均加速正则梯度下降的算法,通过细化初值和 Hessian 矩阵的假设,最优地优化回归问题,并证明其在偏差与方差之间具有最优性、大数据时初始化影响可达到 O(1/n2)以及对于维度 d 的依赖程度为 O(d/n)。
- 随机化草图用于核回归:快速和最优非参数回归
本文研究了基于随机矩阵的核岭回归近似方法,证明了可以仅仅选择与统计维度成比例的投影维度来保持最小极值,从而实现了快速和极小极值的非参数回归估计。
- 一种可靠且高效的 Lasso 调参方案与优化保障算法
介绍了一种新颖的方案,用于在具有 Lasso 的高维线性回归中选择正则化参数,该方案受非参数回归中带宽选择的 Lepski 方法的启发,具有最佳的有限样本保证和快速算法。
- 早停和非参数回归:一种最优的数据依赖性停止规则
本文针对非参数回归问题中的一种梯度下降算法,提出了一种基于数据的提前停止策略,不需要保留数据或交叉验证,同时证明了该策略有较好的性能表现,可应用于 Sobolev 平滑性类等多种核函数类中。此外,本文还展现了该策略与核岭回归估计器的解路径之