- 减轻面部表情识别中的算法偏差
通过使用一个去偏变分自编码器,在偏倚数据集上进行实验以缓解偏见,本研究探讨了一种消除偏见的方法,以在面部表情识别中平等对待每个人。
- 用对比学习消除多模态讽刺检测中的偏见
通过引入反事实数据增强和对抗学习的方式,本研究提出了一种新颖的去偏置多模态讽刺检测框架,旨在提高模型的鲁棒性和抑制有偏词语的不良影响,大量实验证明了该框架的卓越性能。
- 基于文本的末层微调解决图像分类器偏见问题
基于大型语言模型构建的文本数据集,在嵌入空间中进行最后一层的再训练以解决分类器的偏见问题。这种方法可以将文本作为图像的代理,通过过滤生成的词语减少噪音,并展示了与使用平衡图像数据集的最后一层再训练方法相当的性能,同时优于其他无需组注释数据集 - 研究 ASR 基础模型的新兴音频分类能力
使用 Whisper 这个 ASR 基础模型进行无监督音频分类,并通过去偏方法获得显著的性能提升。
- 改进文本到图像扩散模型实现公平
快速采用的文本到图像扩散模型强调了解决其偏见的迫切需求。本研究将公平性视为分布对齐问题,提出了两个主要技术贡献:(1)分布对齐损失,将生成的图像的特定特征引导向用户定义的目标分布;(2)扩散模型抽样过程的有偏直接微调,利用有偏梯度更有效地优 - 语言模型中应平等对待一切:反事实感知公平文本生成
通过使用 Counterfactually Aware Fair InferencE (CAFIE) 框架,我们提出了一种动态比较不同人口统计学数据模型理解能力的方法,以生成更公平的语句,从而实现公正的语言建模能力。
- EMNLPIBADR: 一个迭代的认知偏差数据修正框架用于消除 NLU 模型的偏见
本研究提出了 IBADR,一种迭代的偏差感知数据集优化框架,它在不预定义偏差特征的情况下对 NLU 模型进行去偏。实验结果和深入分析表明,IBADR 不仅显著优于现有的数据集优化方法,达到 SOTA,还与以模型为中心的方法兼容。
- ACL去偏对于语言模型在下游任务中的影响被低估
通过使用包含女性、男性和刻板印象的单词的各种基准数据集,我们比较了去偏见对多个下游任务性能的影响,实验证明去偏见的影响在所有任务中都被一致地低估。此外,通过单独考虑包含女性、男性和刻板印象单词的实例,而不是所有实例,可以可靠地评估去偏见的影 - DebCSE:从去偏见的角度重新思考无监督对比句嵌入学习
本文研究了对比学习中存在的偏见问题,提出了一种名为 DebCSE 的新型对比框架,通过逆倾向加权抽样方法选择高质量的正负样本对,以消除各种偏见的影响,从而提高句子嵌入的质量。在语义文本相似性基准测试中,DebCSE 的平均 Spearman - 通过去偏向性生成信息场景图
为解决语义空间层面和样本训练层面的不平衡问题,在场景图生成中提出了一种名为 DB-SGG 的有效框架,通过语义去偏见和平衡谓词学习的组件集成,超过 Transformer 136.3%、119.5%和 122.6%的 mR@20,在三个场景 - 多模态情感分析的一般去偏方法
通过减少模型对虚假相关性的依赖,我们提出了一个基于逆概率加权的通用去偏方法,以提升多模态情感分析模型的超出分布泛化能力。通过解耦每种模态的鲁棒特征和偏倚特征,并利用偏倚特征估计偏倚,我们使用逆概率加权来减少对大偏倚样本的影响,从而促进情感预 - 性别调整:强化预训练语言模型去偏见的微调
通过使用下游任务数据对预训练语言模型(PLMs)进行微调, Gender-tuning 方法能够消除 PLMs 中的性别偏见,同时提高 PLMs 在下游任务上的性能。
- 通过两阶段因果建模实现无偏场景图生成
本文提出了一种使用因果推理的场景图生成任务去偏置化的方法,其中包含两个阶段的因果建模,第一阶段是因果表示学习,第二阶段是自适应逻辑调整,实验结果表明该方法可以在头尾关系之间实现更好的平衡,达到最先进的性能表现。
- ACL酷儿人是人,首先是人:解构大型语言模型中的性取向刻板印象
LLMs 生成的文本存在社会偏见,本文通过情感分数打分分析,证明了 LLMs 生成文本存在性少数群体偏见,并展示了一种基于 SHAP 分析的启发式方法来减轻性少数群体偏见的方法
- 自然语言处理中社会人口统计信息偏差调查
本篇论文调查了 209 篇关于自然语言处理模型中的偏差的论文,提出了社会人口统计学偏见的定义,并确定了研究偏见的三个主要类别:偏见类型,偏见度量和去偏见。作者总结说,目前的去偏见技术是肤浅的,不能真正消除偏见;最后提供了未来工作的建议。
- 利用成对分布差异的亲和力聚类框架进行数据去偏差
本文提出一种利用亲和力聚类进行数据增强的方法(MASC),以平衡目标数据集中受保护群体和非受保护群体的比例和代表性,通过共享受保护属性的相似数据集的实例并使用非参数谱聚类进行优化数据集分类。实验结果显示该方法可以有效地消除数据偏见。
- 测量大型语言模型中的文化偏见:祈祷后喝啤酒?
本文探讨语言模型是否存在文化偏见,研究发现目前的语言模型在处理和生成阿拉伯语文本时存在明显的西方文化偏见,特别是在人名、食物、服装、地点、文学、饮料、宗教和体育等八个方面。同时,研究表明,向模型提供文化指示符或相关文化示范可以帮助消除偏见。
- 使用多任务学习进行公平普适化,无需使用人口统计信息
本研究提出了基于多任务框架的公平性训练方法,通过对相关任务中的人口统计数据进行利用,减少目标任务中的偏差,即使在没有内部统计数据的情况下也可以提高公平性。
- 通过基于梯度的表示解释来消除模型偏差
本文提出了一种基于代理属性与敏感属性的公平性框架,通过梯度解释找到模型关注点,再利用它们来指导下游任务模型的训练,以实现公平性和效用之间的平衡。实验证明,我们的框架在非分离和分离表示学习方法上具有更好的公平性 - 精度平衡。
- MsPrompt:针对去偏少样本事件检测的多步提示学习
本文提出了一个基于多步骤提示学习模型的真正的几乎零样本事件检测方法,旨在解决传统事件检测算法中存在的数据稀缺和上下文偏差问题,并通过对知识增强本体论的应用,以及 原型学习模块来提高事件分类和泛化性能。实验表明,与当前最好的基线模型相比,该方