通过对英语电影本文分析了性别角色的刻画,并运用自然语言处理技术和机器学习技术探讨了男性和女性角色在性格特征上存在的差异和社会刻板印象,致力于推动电影行业中的性别平等。
Nov, 2022
本文提出了一种社会偏见检测的新框架 Dial-bias,通过该框架构建了中文社会偏见对话数据集,并建立了不同粒度和输入类型的对话偏见检测基准,旨在帮助实践中构建更安全的对话系统。
Feb, 2022
本文研究了对话系统的人格偏见,并分析了不同社会阶级、性取向、种族和性别的人物角色。研究者提出将对话系统的角色升级到拥有更多人文特征以更好的迎合用户的趋势可能会产生一些偏见。他们还介绍了一个开源框架 UnitPersonaBias,以探索和聚合对话系统中的人格偏见。此外,研究者还发现与不使用人格形象相比,采用人格形象可能会减少有害的回应。但是,人格选择会影响生成响应中危害程度,因此在实际应用前应该进行系统评估。
Apr, 2021
我们研究了在视觉和语言模型训练中使用大型未筛选数据集的不公平表现,以及如何应对这个问题,研究发现社会偏见在图像生成、图像描述和图像文本嵌入等视觉语言任务中都是一个持续而普遍的问题。
Apr, 2023
使用新颖的数据集开发方法,Biasly 数据集以与文献中独特的方式捕捉了对女性的厌恶的微妙之处。与多领域专家和标注员合作构建的数据集包含了电影字幕的标注,捕捉了北美电影中的口语表达对女性的厌恶。该数据集可用于各种 NLP 任务,包括分类、严重程度评分回归和文本重写的生成。在本文中,我们讨论了所使用的方法学,分析了获得的标注,并在对女性厌恶检测和缓解的背景下使用常见的 NLP 算法提供了基线。我们希望这项工作能促进 AI 在 NLP 中的社会价值,用于偏见检测、解释和消除。
Nov, 2023
本研究介绍了一个数据集,有助于评估算法偏见和计算机视觉和语音模型在 11 个属性方面的鲁棒性。数据集包括来自巴西、印度、印度尼西亚、墨西哥、越南、菲律宾和美国的 26,467 个视频。参与者同意将其数据用于评估 AI 模型的公平性并提供了多种人口统计学信息。
Mar, 2023
本研究尝试减轻语言视觉模型中的性别偏见问题,通过研究现有数据集中性别偏见的影响程度,并提出一种缓解方法。
May, 2023
本研究旨在研究将个性特征应用于对话生成中以提供个性化对话的问题,并提出了一种基于关键 - 值对的嵌入式特征融合模块和两种新颖的特征感知机制,即基于对话者的关注机制和基于对话者的偏置机制,并构建了 PersonalDialog 数据集,该数据集包含来自海量讲话者的具有不同特征的大量多轮对话。实验结果表明,所提出的模型能够在不同情境下处理适当的特征。
Jan, 2019
为了提高语言模型的公正性,本文提出了多项定义并给出了新的测试和度量方式,旨在减少机器学习在文本生成过程中对性别、种族、语言宗教等社会构建的刻板印象所带来的负面影响。实证结果和人工评估表明,该方法能够在文本生成中减少偏见同时保留重要的上下文信息。
Jun, 2021
该研究介绍了一个大规模数据集以及一个新的自动化度量方法,用于研究和评测深度学习技术所生成的自由文本中存在的社会偏见,并发现机器生成的大部分文本在五个领域中表现出比人类撰写的维基百科文本更大的社会偏见。
Jan, 2021