重新评估语言模型中的偏倚检测:隐含规范的作用
研究证明,使用样板评估来量化社会偏见可能不可靠,本文研究了在不破坏语义的情况下手动修改先前工作中使用的模板是否会影响偏见测量的结果,结果显示在四项任务中,模板的修改会使偏见值和相应的结论在不同程度上变化,有增有减,因此,对于 LLMs 的公平性评估需要更加谨慎。
Oct, 2022
通过评估不同方法对模型预测中的标签偏倚进行量化研究,我们提出了一种专门用于少样本提示的新型标签偏倚校准方法,其在提高性能和减轻标签偏倚方面优于最近的校准方法。我们的结果强调大型语言模型中标签偏倚对其可靠性的影响。
May, 2024
通过心理学启发的 LLM 暗示联想测试偏差和 LLM 决策偏差等两项偏差测量方法,揭示了大规模语言模型中普遍存在的人类化刻板印象偏差,以及对决策任务中的微妙歧视进行检测。
Feb, 2024
对大型语言模型的研究发现,它们往往存在社会偏见,尤其在印度和西方语境下,而引入一种称为 Instruction Prompting 的简单干预方法能够显著减少这种偏见。
Sep, 2023
人们对语言的认知取决于个人背景,如性别和种族。本研究利用包含不同人口背景注释的 POPQUORN 数据集,对四种常见的大型语言模型进行一系列实验,以调查它们理解群体差异和对礼貌和冒犯性的预测中的潜在偏见。结果发现,模型的预测更接近来自白人和女性参与者的标签。我们进一步探索了带有目标人口统计标签的提示,证明仅仅包含目标人口统计标签会削弱模型的性能。我们的结果表明,大型语言模型在主观性自然语言处理任务上存在性别和种族偏见,并且仅仅利用人口统计学提示可能无法消除这种影响。
Nov, 2023
通过探索新的方法来检测大型语言模型中的潜在偏见,本研究聚焦于不确定性量化和可解释人工智能方法,旨在提高模型决策的透明性,以识别和理解不明显的偏见,从而为更加公平和透明的人工智能系统的发展做出贡献。
Apr, 2024
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
通过对八种流行的大型语言模型在三个临床病例描述数据集上进行严格评估和分析,我们发现这些模型在受保护群体之间存在各种不同程度的社会偏差,而大小模型并不一定比通用模型更具偏见,经过设计决策的提示方式对社会偏差也有影响,研究呼吁对在临床决策支持应用中使用的大型语言模型进行进一步评估、审查和改进。
Apr, 2024
通过对四个最近发表的大型语言模型进行测试,我们发现大型语言模型在性别刻板印象、职业偏见和句子结构等方面表现出偏见,它们更倾向于选择与性别刻板印象相关的职业,并且在提供自己选择的解释时常常存在事实错误,对于这些模型的偏见行为,我们需要谨慎测试以确保它们对待边缘化个体和社区是公平的。
Aug, 2023