- REST: 通过重新加权稀疏训练增强 DNN 的群体鲁棒性
通过重新权重稀疏训练的框架(REST),减少对偏见相关特征的依赖,改善深度神经网络(DNN)在有偏数据中的性能,同时提高计算和内存效率。
- 利用反事实对齐方法识别虚假相关性
通过计算输入不同分类器后输出的响应之间的关系,我们提出了反事实对齐方法来检测和探索黑盒分类器中的虚假相关性,并验证了在人脸属性分类器中检测到虚假相关性的能力,同时证明了可以通过 CF 对齐方法纠正分类器中检测到的虚假相关性。
- 通过学习速度感知抽样使自监督学习对于偶发相关性具有鲁棒性
我们研究了自监督学习 (Self-supervised learning) 在存在假相关性 (spurious correlations) 的情况下,说明了尽管存在其他重要的预测特征,通过捕捉与敏感属性相关的引人注目的特征子集,可以最小化自 - 使用扩散概率模型的集合多样性减少快速选择偏差
在这项工作中,我们提出了一种利用扩散概率模型(DPMs)来减轻简洁性偏见的集成多样化框架。我们展示了在特定训练间隔中,DPMs 能够生成具有新颖特征组合的图像,即使在训练时显示相关输入特征的图像。我们利用这一关键属性通过集成差异来生成合成的 - 利用反事实情况测量和改善对部分输入的专注力
数据集中的伪相关性对于 NLP 模型在未见数据上的泛化性造成了影响。我们提出了一种新的评估方法,Counterfactual Attentiveness Test (CAT),通过使用反事实推理来检测模型的注视变化。 CAT 的结果显示,对 - 探索语言模型在文本分类中的概念层次上的伪相关性
我们使用语言模型为每个文本标记概念并测量模型在测试数据上的概念偏差,然后提出一种数据再平衡方法来减轻由于训练数据中的不平衡标签分布而引起的虚假相关性,并证明我们的缓解方法在处理文本分类数据集中的标签分布偏差时具有优越性。
- 自然语言处理模型的泛化:概念与因果关系
探索机器学习模型泛化能力的基础,研究影响因素,尤其关注内部有效性,外部有效性和虚假相关性,并指导分析泛化失败。
- 只需一次前向传递:在单个前向传递中的预测和合理化
无监督的理由提取旨在提取简洁而连续的文本片段以支持模型预测,而无需任何已注释的理由。通过使用一种名为 “You Only Forward Once (YOFO)” 的新型单阶段框架,本研究在 BeerAdvocate 和 Hotel Rev - 通过强韧视觉概念在真实和人工智能生成的图像分类中检测虚假相关性
我们提出了一种高效侦测潜在假相关的通用方法,相对于现有技术需要更少人工干预,并且在消除像素级注释的同时提供直观的解释。此方法对 AI 生成的图像的特殊性表现出容忍度,而这是一个相当具有挑战性的任务,大多数现有方法在此方面存在不足。因此,我们 - 利用机器学习快捷方式保护公开可用的数据
设计了一种方法来通过加入机器学习快捷方式来防止网络爬虫,使得采集的数据无法使用,同时在人类感知中很难察觉,以此作为对非法数据采集的积极保护。
- 无任何群组信息的群组鲁棒分类
这项研究提出了一个修订的方法来在完全无偏见的情况下进行训练和验证无偏见模型,通过采用预训练的自监督模型可靠地提取偏见信息,并与我们的验证准则结合使用逻辑调整训练损失函数。我们的实证分析证明了我们的方法克服了所发现的挑战,始终提高了鲁棒准确性 - 注意指令:基于提示的学习中一致性和交互的整体评估
通过系统、全面的评估,本研究发现预训练语言模型的适应任务方式中的设计选择会造成不稳定性和不一致性的问题,并指出在大多数场景中应该避免或小心处理哪些因素。
- 基于因果结构的文本 OOD 泛化的增强
通过使用反事实数据增强、基于数据的因果结构模拟对虚假特征的干预,以及采用大型语言模型来表示文本的条件概率,该论文介绍了一种改善文本分类器鲁棒性的方法,并通过在医疗叙述和半合成数据上进行广泛实验,证明了该方法对改善模型的预测能力具有积极效果。
- 通过联合子空间估计从神经网络表示中去除虚假概念
神经网络中的概念相关性对于网络的超出分布泛化有不利影响,为了解决这个问题,作者提出了一种迭代算法,通过联合识别神经网络表示中的两个低维正交子空间来分离与主要任务无关的概念,该算法在计算机视觉和自然语言处理的基准数据集上表现优于现有的概念去除 - ICCVSC2GAN: 自校正相关 GAN 空间重新思考纠缠
本研究探讨了生成对抗网络(GANs)中潜在空间的交错问题,并提出了一种新的框架 SC$^2$GAN 以实现解交错。通过重新投影原始潜在编码样本并根据高密度和低密度区域进行编辑方向的修正,利用原始的有意义方向和语义区域特定层插值原始潜在编码, - 利用扩散分解表示缓解不完全规定的视觉任务中的捷径
通过使用扩散概率模型生成合成的反事实情况,我们提出了一种集成多样化框架,用于处理数据中的错误相关性和捷径学习现象,实验证明扩散引导的多样化能够使模型避开捷径线索,获得与额外数据采集方法相当的集成多样性性能。
- ICCV环境偏向特征排名用于新颖性检测的鲁棒性
我们提出了一种方法,利用预训练的嵌入和多环境设置,基于环境焦点对特征进行排名,以便在语义内容方面检测新奇性,并对无关因素变化进行不变性处理。通过计算特征在不同环境之间的分布方差,我们确定每个特征的得分,并通过丢弃得分高的特征来消除虚假相关性 - 极端图像转换促进鲁棒潜在目标表示
用 Extreme Image Transformations(EIT)微调预训练网络可以增强其对各种强度的常见对抗攻击的性能,展示了在受到更强噪声的情况下,EIT 训练网络在物体区域仍然显示强烈的激活,展现了对不同类型对抗攻击的有希望的泛 - 利用软标签编码缓解语言模型中的快捷方式
最近的研究表明,大型语言模型在自然语言理解任务中依赖于数据中的伪相关性。本研究旨在回答以下研究问题:我们能否通过改变训练数据的真实标签来减少伪相关性?具体而言,我们提出了一种简单而有效的去偏框架,称为软标签编码(SoftLE)。我们首先使用 - 分类中虚假相关性的测量:译文中的 “聪明汉斯
通过两种方法进行定量化,并通过遮盖已知的错误主题相关项进行缓解,从而揭示了高性能神经翻译语分类器中的虚假主题相关性的存在。