转移学习中的越界泛化测量
提出了一种使用缺乏伪标签和数据分布限制的无分布数据进行数据增强的方法,以改善神经网络的推理泛化能力,并在 CIFAR-10,CIFAR-100 和 ImageNet 的子集上进行了实验证明。
Jan, 2021
研究探讨了机器学习中的问题,特别是当模型在不同于训练数据的数据上进行测试时,模型很容易出现失败的现象,主要依靠发现数据的因果结构、找到可靠的特征并进行推广算法等方面展开探讨。
Mar, 2021
通过偏差方差分解研究对抗性训练扰动半径对模型测试误差的影响,发现模型的偏差随扰动半径增加单调增加,方差则在训练集插值阈值附近单峰;同时,偏差和方差可用于指导缩小泛化间隔的方法,即预训练和使用无标签数据。
Mar, 2021
通过对分布偏移数据的分类和对其相关算法的大量实验比较,对已有数据集和算法进行了分类整合,为未来的迁移学习和数据偏移研究提供了参考。
Jun, 2021
该研究论文系统而全面地讨论了Out-of-Distribution generalization问题,其中包括它的定义、方法论、评估以及对未来的启示和发展方向,以及包括无监督表示学习在内的现有方法。
Aug, 2021
在本研究中,我们发现了一个反直觉的现象:在涉及目标任务的样本数量增加之前,由于少量的来自未知分布数据的样本,可以提高任务的泛化性能,但随着样本数量的增加,泛化误差达到阈值后会逐渐下降;我们采用合成数据集上的Fisher's Linear Discriminant和计算机视觉基准数据集(如MNIST、CIFAR-10、CINIC-10、PACS和DomainNet)上的深度神经网络来证明这一现象;在我们知道哪些样本是未知分布的理想情况下,我们可以使用适当加权的目标和外部风险的目标函数来利用这些非单调趋势,但其实际效用有限,此外,当我们不知道哪些样本是未知分布时,数据增强、超参数优化和预训练等常用策略仍然无法保证目标泛化误差不会随着未知分布样本数量的增加而下降。
Aug, 2022
本文探讨了线性模型在实际数据中的泛化能力,并提出了一种在非独立同分布数据和分布变化情况下的解决方法,得到了渐近精确的理论结果,并在实际数据验证了结果的有效性。
May, 2023
我们的研究探讨了分布偏移程度的更加微妙的评估设置,我们发现模型的稳健性在不同程度的分布偏移下可能相当脆弱和不一致,因此在从有限范围下的评估中得出结论时应更加谨慎。此外,我们观察到大规模预训练模型(如CLIP)对于新颖下游任务的微小分布偏移也很敏感。这表明,尽管预训练表示可以帮助提高内分布性能,但在某些OOD场景中可能对泛化性能产生最小甚至负面影响,如果不正确使用。鉴于这些发现,我们鼓励未来的研究在可能的情况下进行更广泛范围的评估。
Oct, 2023
在研究中,我们调查了训练数据的增加对测试数据中的泛化错误的影响,并将未观察到的数据分布定义为训练领域的凸包外的数据,提出了一种基于这一定义的新型泛化界限,并探索了数据增强和预训练等策略以解决这个问题,最后我们还提出了一种在源领域中的强化学习选择算法,能够比基线方法提供更好的性能。
Dec, 2023
机器学习模型在非独立同分布的数据分布下表现出可疑的风险,因此需要发展算法来评估和改善模型的泛化能力以及处理分布变化的能力。本文综述了现有的非独立同分布泛化评估的研究,将其划分为三个范式:非独立同分布性能测试、非独立同分布性能预测和非独立同分布内在特性表征,并简要讨论了预训练模型的非独立同分布评价。最后,提出了未来研究的几个有前景的方向。
Mar, 2024