美国法律意见书中种族偏见趋势
本文针对自然语言处理中的语言偏见问题,提出了一种用于识别美国司法审判文件中的嵌入有性别和种族刻板印象的词语的方法,并对法律域中的这些性别和种族偏见问题进行了分析并提出了可能的缓解策略。
Mar, 2022
通过研究法律数据集和大型语言模型产生的案件判决摘要中存在的偏见,分析其对法律决策的影响,揭示大型语言模型和预训练的摘要模型生成结果中存在的有趣偏见,并探讨这些偏见背后的原因。
Dec, 2023
AI/NLP models trained on racially biased datasets demonstrate various types of bias, raising profound ethical implications regarding the impact of these models on user experience and decision-making due to the presence of racial bias features in datasets. The research implicates a negative influence on users' persuasiveness due to unexplainable discriminatory outcomes, calling for responsible AI frameworks within organizations.
Jan, 2022
本文通过时间序列的词汇联想分析,以及针对 OCR 错误引入噪音的技术处理,研究了加勒比地区殖民时期(18 世纪到 19 世纪)历史报纸中性别、种族偏见的连续性和转化。研究结果表明,种族和性别偏见是相互依存的,两者的交叉触发了不同效应,这与交叉性理论一致。
May, 2023
本研究提供了第一个特意设计用于检测系统中不当偏见的基准数据集,即 Equity Evaluation Corpus (EEC),基于此数据集,我们研究了参加 SemEval-2018 任务 1 的 219 个自动情感分析系统,发现其中多个系统在种族或性别方面存在显著的偏差,结果揭示了自动机器学习系统可能会自发强化和永久化不当偏见或歧视。
May, 2018
通过调查 ACL 文献集中涉及种族的 79 篇论文,发现 NLP 模型开发各阶段都存在各种类型的种族相关偏见,并强调需要积极考虑如何维护种族等级制度,但在种族和 NLP 研究方面仍存在缺口:将种族作为固定单一维度变量运作,对历史上种族歧视造成的差异加以强化;在 NLP 文献中历史上处于边缘的特定人群的声音几乎没有被重视。因此,我们的工作呼吁在 NLP 研究实践中包容种族和实现种族公正。
Jun, 2021
本文研究了五个 Twitter 数据集上使用的基于分类器的识别恶意语言的技术中的种族歧视问题,并在使用这些技术时可能产生的不平等负面影响上发出了警告。
May, 2019