- ACL基于极小极大博弈的 Q-Diversity 鲁棒优化模型
本研究旨在解决传统风险最小化(ERM)有偏学习的问题,通过提出基于参数化的 Q-Diversity 框架,利用交互训练模式和新型跨组混合策略实现了减小预定义组之间误差的作用,并通过实验结果验证其在文本分类任务中有效提高了最差情况下的准确性。
- 应对运营管理中的分布式转移:以定制生产中的订单履行为例
针对生产线加工定制化产品时分布变化带来的机器学习算法性能下降问题,本研究提出了一种基于敌对学习和车间生产调度的数据驱动方法,以实现在高度定制化的制造环境中考虑分布变化。实证结果表明,相比通用算法,该方法可有效提升生产管理决策,达到更高的生产 - CVPR数据驱动解释对抗外部数据的鲁棒性研究
本篇论文提出了基于自监督学习思想的分布式鲁棒性解释,针对黑盒模型的应用,解释在数据分布变化时的可靠性,并通过广泛的实验验证了该方法对模型的鲁棒性提升。
- 核化异构风险最小化
本文介绍了一种基于核化的异构风险最小化算法,实现了潜在特性探索和不变学习,并通过指定不变梯度方向向原始神经网络传递反馈。我们从理论和实践两方面证明了我们的算法的有效性。
- 面向外部分布泛化:一项调查
该研究论文系统而全面地讨论了 Out-of-Distribution generalization 问题,其中包括它的定义、方法论、评估以及对未来的启示和发展方向,以及包括无监督表示学习在内的现有方法。
- Shift-Robust GNNs: 克服局部图训练数据的局限性
本文提出一种称为 Shift-Robust GNN(SR-GNN)的方法,用于解决在真实世界场景下,由于数据获取昂贵和天生偏见而导致的数据采样不均衡问题,SR-GNN 可以适应节点标签采集偏差和数据分布转移等差异,从而实现半监督学习任务中的 - 分布偏移下的统计检验
本文介绍了在分布偏移下的统计检验,提出了一种通过重新采样构建辅助数据集的一般化检验方法,可用于处理强化学习和因果推断等多个领域的问题。
- ICML异构风险最小化
提出了异质风险最小化 (HRM) 框架来实现数据的异质性联合学习和不变关系, 实现了稳定的预测,从而解决了许多不变学习方法无法应用的问题。
- 通过对抗性特征扰动实现对图像风格的编码稳健性
通过对特征统计数据直接进行扰动,我们提出了 Adversarial Batch Normalization (AdvBN) 方法,它是一种单一的网络层,可以在训练期间生成最差情况下的特征扰动。通过在扰动的特征分布上对神经网络进行微调,我们观 - CVPR卷积神经网络的强健性和可迁移性研究
对现代深度卷积网络(CNN)未能在分布漂移下推广的问题进行了研究,并探究了预备数据量、模型规模和数据处理流程对迁移性能的影响,发现增加训练集和模型大小显著提高了分布偏移鲁棒性,同时是非常简单的预处理,如修改图像分辨率在某些情况下可以显著缓解 - 分布偏移下的稳定对抗学习
本文提出了一种 Stable Adversarial Learning(SAL)算法,该算法通过利用异构数据源构建更实用的不确定性集合,并针对与目标之间的相关性稳定性进行差异化的强鲁棒性优化,在随机梯度优化的情况下证明了可行性和提供了性能保 - EMNLP评估抽奖彩票在分布转移下的表现
本文研究了 Lottery Ticket Hypothesis 在分布转移下的稀疏子网络初始化及转移时的效果,并验证了这种初始化策略的归纳偏差可被应用于多个领域。
- ICCV针对图像转换集的模型易受分布偏移漏洞的解决方案
本研究探讨计算机视觉模型对分布变化的脆弱性,并通过组合优化问题和标准搜索算法寻求这些模型容易受到哪些图像转换的影响。我们通过新的数据增强方法,根据模型容易受到影响的图像变换来训练更加强健模型。实证评估表明,所设计的算法对保持图像内容的操作和 - 通过分布式稳健优化实现统一性能学习模型
本研究提出了一种分布鲁棒的随机优化框架,利用凸形式化来解决学习模型受到数据生成分布扰动的问题,并通过多项收敛性保准来证明模型的可靠性,同时也得出了极限定理及有关泛化到未知人群、精细化认知等真实任务的证据。