通过重新加权样本,本研究在再生核希尔伯特空间中修正最小二乘学习算法的误差,以解决未来数据分布与训练数据分布不同引起的问题,并证明在弱平滑条件下,相比现有分析所证明的,为了达到与标准监督学习相同精度所需的样本数量更小。
Jul, 2023
在这篇研究论文中,我们介绍了一种通过重要性加权的协变量偏移适应方法的双重健壮估计器,该估计器结合了回归函数的额外估计器,减少了密度比估计误差引起的偏差,并通过模拟研究证实了该方法的稳健性。
Oct, 2023
在测试数据中的协变量偏移可以显著降低模型的准确性和公平性表现。我们提出了一种基于加权熵的预测准确性目标和表示匹配损失的新型组合目标函数,通过实验证明了我们的损失函数优化在公平性与准确性的权衡上优于其他基线方法。我们还提出了一种称为不对称协变量偏移的新颖设置,并展示了我们的方法在这种设置下的显著优势。最后,我们理论上证明了在训练集上的加权熵项和预测损失可以近似于协变量偏移时的测试损失。我们通过实验证明了这种对未见测试损失的近似不依赖于影响其他基线方法的重要性采样方差。
通过考虑协变量变化,提出了一种对于未知数据能够保持公正与性能的预测模型的方法。
Oct, 2020
我们提出了一种新的非参数方法来进行协变量转移适应,避免了权重估计和超参数调整,并实现了样本规模几乎线性的运行时间,同时保持了与参数方法相同的收敛速度。
Dec, 2023
本文提出拓展 Conformal Prediction 方法,可计算在测试和训练协变量分布不同的情况下的无分布预测区间,同时在数据满足一定加权交换性的情况下,拓展还可以应用于其他设置,如潜在变量和缺失数据问题。
Apr, 2019
本文证明了独立驱动的重要性权重算法的有效性,并将其解释为特征选择过程,指定了最小稳定变量集,在理想条件下,该算法可以识别此集合中的变量,并提供了渐近性质分析,结果在多个合成实验中得到证明。
Nov, 2021
本文研究了机器学习中的一个重要研究主题:协变量转移。我们表明这个领域的方法都可以归为信息几何的范畴,并且我们提出的方法可以更高效地进行参数搜索和更好地适应数据,结果比现有方法好。
Apr, 2023
本文研究如何在模型错配偏差情况下学习线性预测模型。我们提出了一种样本重新加权方法,该方法可以减少输入变量之间的共线性,从而提高设计矩阵的条件,并与任何标准学习方法相结合,用于参数估计和特征选择,进而提高模型在不同分布数据集下的稳定性。
Nov, 2019
提出了一个基于表示学习和样本重加权的误差界,针对因果推断和无监督域自适应问题,在设计转换下减少泛化误差的算法框架,与以往方法相比具有更好的效果并具有渐近一致性。
Feb, 2018