本文提出了新的分位数方法,可以适用于任何回归模型,并允许在校准和锐度之间进行权衡,优化中心区间的校准度,并产生更准确的条件分位数。
Nov, 2020
本研究通过建立不等式来描述近似的 pinball 风险最小化器与相应条件分位数之间的接近程度,再利用这些不等式建立了所谓的方差界,并利用两种类型的不等式来证明使用 pinball 损失函数的支持向量机的 Oracle 不等式,从而实现了最小 - 最大下限对某些标准规定的条件分位数的正则性假设。
Feb, 2011
本文研究了具有重尾噪声的高维线性回归模型的分布式估计和支持恢复,并采用分位数回归损失函数来处理噪声。我们提出了一种计算和通信效率高的分布式估计器,理论上表明该方法在少数迭代后即能达到近乎理想的收敛速度,并且还为支持恢复提供了理论保证。
Jun, 2019
本文提出了针对回归模型的不确定性量化问题的非参数校准方法,该方法能够简单高效地提升模型个体校准的性能。通过数值实验,证明其优越性。
May, 2023
提出了一种新的元模型概念,称为生成元建模,旨在构建一个 “模拟器的快速模拟器”,能够在保持相同输入的条件下,以更快的速度生成随机输出,方便实时决策的立即计算任何摘要统计量。
Nov, 2023
基于鲁棒分位数回归和深度学习的方法,在关键特征异常值存在的情况下,提出了用于估计不确定性的方法,并在医学成像翻译任务中展示了其适用性。
Sep, 2023
分布式估计和支持恢复在高维线性分位数回归中具有重要意义,本文通过将原始分位数回归转化为最小二乘优化问题,并应用双平滑方法,提出了一种新的分布式方法来解决此类问题,在保证计算和通信效率的同时能够实现接近 Oracle 收敛速度和高支持恢复精度的估计结果。通过对合成实例和真实数据应用的大量实验,验证了该方法的有效性。
May, 2024
本文探讨了 XGBoost 在复合分位数回归中的应用,提出了一种平滑逼近的 arctan pinball 损失函数,其相对较大的二阶导数使其更适合于 XGBoost 的二阶逼近优化方法,可同时预测多个分位数,更高效且减少了分位数交叉问题。
Jun, 2024
该论文提出了一种基于证据学习的深度贝叶斯分位回归模型,能够在没有高斯分布假设的情况下估计连续目标分布的分位数,同时捕捉不确定性和提高模型的可计算性和可扩展性。
Aug, 2023
本研究提出了将 CP 与 QR 结合的预测推理程序,通过对输入协变量作回归来实现对分位函数的预测,借此推出具有本地经验保证的自适应预测间隔,并且证明了与现有方法相比具有相似的效率。
Apr, 2023