- 评估最坏情况下子群体下的模型性能
通过研究核心属性 Z 的规模,我们开发了一种可伸缩且有原则的两阶段估计过程,可以评估最先进模型的稳健性,证明了我们的方法认证模型的稳健性,防止部署不可靠的模型。
- 跨模态去偏倚:利用语言减轻图像中的亚种群转变
本文通过利用多模态基础模型中的分布鲁棒性,通过参数微调来提高分布鲁棒性,并利用自然语言输入来消除图像特征中的偏见,从而在子群落变化下改善最坏情况性能。大量实证研究表明,通过自然语言进行去偏倚的图像表示能够显著提高性能,并降低在子群体变化下的 - 最优输运模型的分布式鲁棒性
本文提出了基于最优输运的分布鲁棒性模型训练框架,在模型空间内提高深度学习模型的鲁棒性,并将该框架应用于单个模型、集合模型、以及贝叶斯神经网络的训练中,通过广泛实验验证其有效性。
- EMNLP探索问答模型的分布稳健性
在问答模型的分布稳健性中,我们进行了一项大规模的实证评估,研究了超过 350 个模型和 16 个问答数据集的情况,发现在很多情况下,模型的变化并不影响稳健性,而在分布内性能单独决定着分布外的性能,并且我们的发现表明,零样本和上下文学习方法比 - ACL估算和提高语言模型的强健性的方法
通过研究大型语言模型的泛化能力问题以及多种提高其分布韧性的方法,本文提出了未来改进大型语言模型鲁棒性的研究方向。
- ICML黑盒函数的域外泛化认证
本研究提出了一种基于 Hellinger 距离的证明技术,可以用于证明黑盒模型和有界损失函数的分布健壮性和域外泛化。实验证明这种技术在大型神经网络和不同类型的损失函数下具有良好的可扩展性和灵活性。
- ACL清理语言模型风险边缘化少数群体声音
本文研究了使用 LM 模型在 marginalized groups 中的应用,发现目前已有的毒性去除技术会降低模型在 marginalized groups 语言中的效用,因为这些技术削弱了 LM 模型的抗分布转移能力,导致各种失败。
- 寻求鲁棒的泛化测量方法
本文讨论了深度学习中的一项科学挑战,即解释归纳泛化问题,通过关注经验性评估方法,提出了将泛化度量评估纳入分布强健性框架的看法。
- 广义 Lipschitz 正则化等于分布式健壮性
探讨关于对抗性样本的问题,提出一种基于运输成本不确定性集合的正则化方法,实现了对 Lipschitz 正则化模型的稳健性证明,揭示了对抗学习和分布鲁棒性之间的联系,并提供了对核分类器的 Lipschitz 正则化方法。
- EMNLP分布式鲁棒性语言建模
本文研究语言模型在未知测试分布下的性能问题,并提出了一种基于分布鲁棒性的优化方法,称为主题条件风险值(topic CVaR),该方法能够在广泛的潜在测试分布下表现良好,并且在使用 Yelp 评论和新闻混合训练语言模型,并仅在评论数据上进行测 - 通过分布式稳健优化实现统一性能学习模型
本研究提出了一种分布鲁棒的随机优化框架,利用凸形式化来解决学习模型受到数据生成分布扰动的问题,并通过多项收敛性保准来证明模型的可靠性,同时也得出了极限定理及有关泛化到未知人群、精细化认知等真实任务的证据。
- 锚定回归:异质数据迎接因果关系
本文研究了在训练数据与测试数据分布不同的情况下,利用 anchor regression 方法通过使用外生变量来预测响应变量,并提高其可复现性和分布鲁棒性。