(几乎) 通过分歧差异证明分布偏移下的误差界
在学习分布转移的基本问题中,我们提出了一个新模型,称为可测试学习,可以通过一个相关的测试来得到分类器在测试分布上的性能证明,并证明了对于一些常见概念类别如半空间、半空间的交、决策树等,以及具有低次 $L_2$- 夹逼多项式逼近器的任何函数类别都可以在这个模型下学习。
Nov, 2023
提供了可靠与高效的算法来测试本地化的差异距离,进一步扩展了 TDS 学习模型并改进了之前相关的工作,同时提供了针对常数深度电路的指数级改进,与低维凸集的首个正面结果。
Jun, 2024
模型泛化性和预测分布在数据的广泛应用中至关重要,本研究通过基于 Hellinger 距离、Jensen-Shannon 和 Kullback-Leibler 散度的模型差异概念,发现散度得分相对于最高 1 的概念在测试误差估计和检测率上提供更好的结果,实验涉及标准视觉和基础模型。
Dec, 2023
本文介绍了深度神经网络的预测误差可以通过模型的预测不一致性进行估计,其中,“广义差异等式” 遵循了深度集合的良好校准性,并提出了 “类别聚合校准” 的概念。但我们发现该理论可能不实用,因为预测不一致性增加时,深度集合的校准性可能会降低,并需要标签来估计新数据集上的校准性。我们简化了理论陈述和证明,并在概率上下文中展示它们是简单明了的。
Feb, 2022
该研究论文研究了在不同测试环境中无法访问真实测试标签的情况下估计测试准确性的方法,通过使用神经网络的输出或提取特征来建立与真实测试准确性相关的估计分数,实验证明梯度提供的信息可以预测分布变化下的真实测试准确性,并提供了理论方面的洞见。
Jan, 2024
在分布转移理论中,通过采用不变风险最小化(IRM)类似的假设连接分布,研究源分布到目标分布的分类器,揭示了源分布数据足够准确分类目标的条件,并讨论了在这些条件不满足时,只需目标的无标签数据或标记目标数据的情况,并提供了严格的理论保证。
May, 2024
本文提出了一种建立在鲁棒性预测推断上的不确定性估计模型,使用 conformal inference 方法建立了准确覆盖测试数据分布的预测集,通过估计数据漂移量建立了鲁棒性,并在多个基准数据集上进行了实验证明了该方法的重要性。
Aug, 2020
在实际场景中,数据的异质性通常是规范,传统的学习误差下界对于异质性数据是不准确的。本文通过引入更现实的异质性模型 (G,B)- 梯度差异性,展示了这一模型覆盖了比现有理论更广泛的学习问题,并且证明了分布式学习算法的学习误差存在下界。我们推导了一个强鲁棒的分布式梯度下降算法的上界,并且通过实证分析表明了我们提出的分析方法能够减小理论和实践之间的差距。
Sep, 2023
我们研究了基于无限时域马尔科夫决策过程的高置信度离策略评估,目标是仅使用预先收集的来自未知行为策略的离线数据建立目标策略值的置信区间。通过创新的统一误差分析,我们共同量化了建模边际化重要性权重的错误以及由抽样引起的统计不确定性这两个估计误差的来源,揭示了先前隐藏的错误权衡问题。通过精心设计的判别函数,我们提出的估计器既能打破错误权衡的限制以获得可能的最紧的置信区间,又能适应分布偏移以保证鲁棒性。我们的方法适用于时间相关的数据,不需要假设任何弱依赖条件,通过利用局部超值 / 鞅结构。在非线性函数近似设置中,理论上证明了我们的算法具有高效采样、错误鲁棒和可证收敛性。所提方法在合成数据集和 OhioT1DM 移动健康研究中得到了数值性能的验证。
Sep, 2023