- 因果启发式正则化实现域通用表示
在给定描述不同领域 / 分布共享的数据生成过程的因果图的基础上,通过强制执行足够的图推断条件独立性可以确定领域通用(非虚假的)特征表示。针对标准的输入 - 输出预测设置,我们将文献中考虑的图集合分类为两个不同的组:(i)那些在训练领域中的经 - CLIP 是否总是比 ImageNet 模型具有更好的泛化能力?
在这篇研究中,通过构建一个包含真实背景上的动物照片的真实世界数据集 CounterAnimal,评估了大规模视觉语言模型 CLIPs 在应对背景引起的干扰时的性能。实验发现,CLIPs 在不同背景下的性能存在显著下降,而 ImageNet - CVPR多模态表示的校准:无需标注的群体稳健性追求
探索在不使用任何组标注的情况下减轻 CLIP 对虚假特征依赖的方法,通过基于对比学习的轻量级表示校准方法对预训练 CLIP 进行微调,从而显著减少依赖并大大提升模型的泛化能力。
- 复杂性的重要性:在伪相关存在的情况下的特征学习动态
我们提出了一个理论框架和相关的合成数据集,以布尔函数分析为基础,允许对虚假特征相对复杂性和与标签相关性的相对强度进行细粒度控制,以研究虚假相关下特征学习的动态。我们的设置揭示了几个有趣的现象:(1)更强的虚假相关或更简单的虚假特征会减缓核心 - 细调用于类别层次虚假特征生成的文本到图像扩散模型
使用大规模文本到图像扩散模型生成虚假特征的方法,通过利用已发现的虚假图像个性化扩散模型,并基于对抗性稳定模型的神经特征提出了一种新的虚假特征相似性损失,实验证明我们的方法能够一致且可视地生成与虚假 ImageNet 参考图像相似的虚假图像。
- 通过转换和增强不完美的训练数据实现鲁棒机器学习
机器学习的数据敏感性和数据不完整性的研究,包括公平表示学习、对不可靠功能进行学习的问题,以及强化学习中的数据不充分覆盖问题。
- 基于预测性变分自编码器的时间序列数据鲁棒表示学习
利用预测时间下一节点以及基于时间平滑性的模型选择度量,我们提出了一种能够减轻 VAE 学习虚假特征,并能在合成数据集中准确恢复潜在因素的 VAE 架构。
- 通过解耦风格和伪特征实现不变的表示学习
针对存在样式分布偏移和虚假特征以及缺失域标签的超域泛化问题,本文提出了一种新的框架 IRSS,并通过引入对抗神经网络和多环境优化逐渐将样式分布和虚假特征从图像中分离,实现超域泛化。实验证明 IRSS 优于传统的超域方法,并解决了不变风险最小 - 通过扩散引导分析和解释图像分类器
通过生成图像的方式来优化分类器结果、分析图像分类器的行为和决策、检测系统错误并可视化神经元,验证现有观察结果并发现新的错误模式或有害的虚假特征。
- 神经网络是隐式决策树:层次简约偏差
神经网络在存在偏执特征时,能够学习到核心特征,即使简单虚假特征扭曲了预测结果;研究通过不平衡标签耦合的方法,调查了简单和复杂特征在预测中的不同水平,以及复杂特征在预测中的贡献。
- EMNLP人类的编辑更好:评估 LLM 生成的反事实扩充数据对有害语言检测的有效性
NLP 模型在社交计算的各种重要任务中被使用,例如检测性别歧视、种族歧视或其他憎恨内容。因此,这些模型对于虚假特征的稳健性至关重要。过去的研究尝试使用训练数据增强来解决这些虚假特征问题,包括 Counterfactually Augment - ICML免费的假设等级:基于目标检测的简单最后一层重新训练框架
使用开放词汇物体检测技术防止深度神经网络中的虚假特征,通过排序图像并使用最高分数的子集进行最后一层训练,验证了该方法在 ImageNet-1k 数据集上的有效性。
- 虚假特征多样化提高离域泛化
通过理论分析和实证研究,我们发现在处理超越分布数据的机器学习任务中,利用多样的偶然特征进行加权模型集成可以显著提高整体的超越分布泛化性能,而不同于传统观点所认为的学习不变特征的方法。此外,我们提出了一种名为 BAlaNced averaGi - ASPIRE:语言引导的增强技术用于鲁棒性图像分类
本文提出了 ASPIRE(用于消除冗余关联的语言引导数据增强)的简单且有效解决方案,通过引导语言生成没有冗余特征的合成图像来扩展训练数据集,从而改善先前方法的分类准确度。
- 最顶层重新训练是否足够抵御伪相关性?
通过对医学领域的真实数据进行研究,我们考察了深度特征重新加权方法(DFR)对于应用的可行性,并研究了最后一层重训练方法背后的有效性原因,结果表明 DFR 可以提高最差群体的准确性,但仍对虚假相关性敏感。
- 预先训练的图像表示中伪特征的鉴别和分离
本论文旨在研究预训练表示中的错误相关性如何影响神经网络的预测性能,探索除去有关错误特征的方法,提出了线性自编码器训练方法来分离表示,并提出了两种有效的错特征去除方法,应用于编码并显著提高了最差组准确率。
- ICML自动特征重新加权的简单快速群体鲁棒性
本文提出了自动特征重新加权 (AFR) 方法,使用加权损失重新训练模型的最后一层来减少对非目标相关的模式的依赖,并在几个视觉和自然语言分类基准测试中获得了最佳结果。
- 基于渐进式数据扩展的强健学习:对抗伪相关性
本文对深度学习算法中非通用虚假特征的问题进行了研究,提出了一种名为 PDE 的新的训练算法,提高了模型的鲁棒性和最坏组表现,平均比现有的最先进技术提高了 2.8% 的最坏组准确性,同时具有高达 10 倍的训练效率。
- 探索特征学习在越界泛化中的作用
通过理论研究发现,EMR 本质上学习了误差特征和不变特征,并且在 EMR 预训练期间学习的特征质量显着影响了最终的 OOD 性能。为了解决这个问题,我们提出了特征增强训练(FAT),通过保留已经学习到的特征并增加新的特征来强制模型学习所有有 - Spuriosity Rankings: 为假相关性的鲁棒性分类数据
提出了一种框架,用于基于存在的虚假线索以及图像排名,评估 ImageNet 模型的错误关联问题,通过对错误排名和正确排名的图像的准确度差距的测量(称为虚假差距),对 89 个 ImageNet 模型进行评估,发现即使是最好的模型在具有虚假线