调查了句子级别表达中社会偏见存在的情况,提出了另一种更有效减弱偏差的方法 Sent-Debias,并在保持性能的同时,用于情感分析,语言可接受性和自然语言理解等句子级下游任务。
Jul, 2020
我们提出了 DeepSoftDebias 算法,该算法使用神经网络执行 “软去偏见”,并在各种 SOTA 数据集、准确度指标和复杂的 NLP 任务中进行了全面评估。我们发现 DeepSoftDebias 在减少性别、种族和宗教偏见方面优于当前最先进的方法。
Feb, 2024
本研究探讨了文本话语中的性别偏见现象,评估了现有去偏置模型的实际效果,认为现有去偏置方法虽然在表面上达到了降低偏见的效果,但实际上却只是掩盖了偏见,并认为现有技术不足以构建性别中性的计算模型。
Mar, 2019
本文探讨了深度学习模型在自然语言推理方面存在数据偏见的现象,并提出了数据级和模型级去偏见的方法,实验表明采用正交性方法可以更好地去偏见且保持高准确率。
May, 2020
通过提出一种基于因果推断框架的新方法来有效消除性别偏见,该方法可以在保留嵌入式语义信息的同时构建和分析性别信息流的复杂因果机制,从而在性别去偏任务中取得最新的技术结果。
Dec, 2021
本文研究了对比学习中存在的偏见问题,提出了一种名为 DebCSE 的新型对比框架,通过逆倾向加权抽样方法选择高质量的正负样本对,以消除各种偏见的影响,从而提高句子嵌入的质量。在语义文本相似性基准测试中,DebCSE 的平均 Spearman 相关系数为 80.33%,显著优于最新的最先进模型。
Sep, 2023
本研究探讨了预训练词嵌入及其在多模式神经机器翻译模型中的应用,引入两种去偏差技术,并在英德翻译和英法翻译两种语言对上获得了最多 + 1.93 BLEU 和 + 2.02 METEOR 的性能提升。
May, 2019
该研究提出了一种针对 word embeddings 中性别偏见问题的去偏方法,通过保留与性别相关、非歧视性别信息的同时,去除预先训练好的 word embeddings 中的刻板性别歧视偏差,实验结果表明该方法在保留性别相关但非歧视性别信息的同时,能够更好地去偏,适用于一系列 benchmark 数据集和 NLP 应用。
Jun, 2019
使用我们的方法,可以了解到 word embedding 偏差的起源,并找出删除哪些文档可以最大程度地降低偏差。我们在《纽约时报》和 Wikipedia 语料库上演示了我们的技术,并发现我们的影响函数近似非常精确。
Oct, 2018
该论文提出了一种改进的去偏置单语词嵌入方法,以便于能够在跨语言情境下得到良好泛化,通过考虑不同的偏置量化方法以及单 / 多语言情境下不同的去偏置方法,证明了去偏置方法在下游 NLP 应用中的重要性。作者提出的方法在英语以及印地语、孟加拉语和泰卢固语三种印度语言的多语言嵌入中建立了最先进的效果,这将为基于词嵌入的不偏执下游 NLP 应用程序的创建打开新机遇。
Jul, 2021