研究探讨了机器学习中的问题,特别是当模型在不同于训练数据的数据上进行测试时,模型很容易出现失败的现象,主要依靠发现数据的因果结构、找到可靠的特征并进行推广算法等方面展开探讨。
Mar, 2021
本文综述了神经网络模型不同抽象级别的概念、建模方法和最近的研究发现,包括网络模型的概括、分布、域、任务、模式和范围的泛化,着重于在各泛化层次上存在的问题,例如过拟合问题和域适应问题。
Sep, 2022
本文主要研究基于深度神经网络的方法在训练数据与测试数据分布不一致时的性能问题,并通过学习训练样本的权重以消除特征之间的依赖关系,从而提高深度模型的性能。通过在多个分布泛化基准测试上的实验,与同类研究相比,我们的方法取得了很好的效果。
Apr, 2021
本研究探讨了如何测量和改善模型的鲁棒性,并提供了五个包括准确性、校准误差、对抗攻击、环境不变性和综合污染的数据集对深度学习网络进行了分析与比较,发现鲁棒性的提升与具体数据集相关,且关系更为复杂。
Jul, 2022
本论文证明区分隐私 (DP) 训练可以在高级 WYSIWYG 属性方面得到保证,并且提出了一种新的深度学习方法,通过将泛化问题简化为优化问题,避免了 SGD 的病态,构建了简单算法,在分布 - 鲁棒性应用中与 SOTA 竞争,在 DP-SGD 的隐私与影响不平等权衡方面具有显着优势,并在对抗性训练中减轻了健壮过拟合。
Apr, 2022
该论文研究发现,交叉熵等损失函数不能很好地预测深度神经网络的泛化能力,作者提出了一种基于边缘分布的测量方法,它可以被应用在任何架构的前馈深度网络上,并指出这个方法可能会提示新的训练损失函数的设计来实现更好的泛化。
Sep, 2018
通过对 CIFAR-10、ImageNet、FMoW-WILDS 和 iWildCam-WILDS 等模型和数据集的实证研究,我们展示了机器学习系统在未知、分布不同的环境中表现的强相关性,并提供了基于高斯数据模型的理论解释。
Jul, 2021
本文提出了一种基于高斯模型的特征分布参数估计方法,通过估计类间条件密度之间的距离实现对于少样本分类任务中泛化误差的预测,并在实验中表明该方法优于 leave-one-out cross-validation 等传统方法。
Dec, 2022
本篇论文提出了一种基于模型的域泛化方法,通过对数据生成过程和同变性条件的建模,将域泛化问题转化为一个无限维的有约束统计学习问题,并利用非凸对偶理论发展了有约束松弛的统计问题,提出了具有收敛保证的域泛化算法,并在 ColoredMNIST,Camelyon17-WILDS,FMoW-WILDS 和 PACS 等基准测试中取得了高达 30 个百分点的改进。
Feb, 2021
该论文从理论上研究了高复杂度网络的蒸馏问题,并使用了数据增强来展示它的好的泛化性,并配合计算图缩减技术和实验来证明它具有实际应用价值。