- 通过线上协议预测基础模型的性能
通过构建多样性的集合,我们可以利用基于线上一致性的方法以高精度预测基础模型的 OOD 性能。
- 大型语言模型能学习独立因果机制吗?
利用因果关系的两个概念在大型语言模型中学习独立因果机制,通过引入路由方案实现网络的专业化,并采用最小化互信息目标训练一个独立模块来学习抽象和领域不变机制,从而改善抽象和因果推理任务的超越分布性能。
- 分布偏移下的不变异常检测:因果视角
利用因果推断的工具,通过确保不变的表示以增强异常检测模型对不同类型的分布转移的鲁棒性,并通过实验评估证明在分布转移情况下,使用我们提出的正则化项的模型显示出显著的鲁棒性提升和良好的超越分布性能。
- EMNLP通过因果信息最小化校正多模型偏差
研究论文通过利用因果论的方法,学习混淆因素的表示,并利用这些表示来消除模型中的偏见。研究发现,所学习的混淆因素表示确实捕捉到数据集中的偏见,并且所提出的消除偏见的方法在多个多模态数据集上提高了模型的离分布性能,而不损害在分布性能。
- 弗兰肯斯坦效应,或者如何通过混合流形模型实现更好的超出分布性能
我们提出了混合模型汤的流形混合模型算法,通过以最佳方式混合多个微调模型的潜在空间流形来生成融合模型,该融合模型在分布转移时表现显著提高(与最佳单个模型相比提高 3.5%),并且在微调所用的原始数据集上也提供更高的准确率。
- ACL指导学习者:基于 Token 归因相似性的专家产品去偏方法控制
该研究探讨了使用 Product of Experts 算法和 fine-tuning 策略在自然语言推理和事实验证基准测试上改善避免数据偏差的训练模型对于分布外 (out-of-distribution) 数据的效果。
- FL Games:一种用于分布偏移的联邦学习框架
本文提出了 FL Games,这是一个博弈理论框架,旨在通过学习跨领域不变关系来改善联邦学习中的预测模型泛化,FL Games 在多个基准测试中展现了高超的领域外表现。
- ACL基于理据的人机协同机器学习框架
提出了一种基于人的理由中心框架(RDL)来改善少样本学习场景下模型的超出分布性能,该框架利用其中包含的人类干预与半真实增强等因素来消除偏差,并使模型快速准确地推广到各种场景。
- ECCV使用预训练模型的互信息正则化实现领域泛化
使用 mutual information regularization 和 oracle 模型,通过一个预训练模型推导了一个可行的变分下界,证明在缩放实验中,预训练模型的规模越大,MIRO 的性能改善越好。
- 在线准确性:关于样本内外泛化的强相关性
通过对 CIFAR-10、ImageNet、FMoW-WILDS 和 iWildCam-WILDS 等模型和数据集的实证研究,我们展示了机器学习系统在未知、分布不同的环境中表现的强相关性,并提供了基于高斯数据模型的理论解释。