评估语言模型中神经毒性退化的 RealToxicityPrompts
我们探讨了一些减轻大型语言模型毒性的策略,并分析了这些策略对模型偏差和质量的影响。我们发现:虽然基本的干预策略可以有效地优化先前建立的自动指标,但这是以减少有关边缘化团体的文本和方言的语言模型覆盖率的代价。同时,我们还发现,在强减毒干预之后,人类评分员通常不会同意高自动毒性得分 - 这进一步凸显了仔细评估语言模型毒性涉及到的微妙之处。
Sep, 2021
使用大型语言模型和提示学习方法解决有毒内容问题,特别关注有毒内容的分类、有毒区域检测和解毒化三个任务,通过广泛评估发现,与针对特定任务训练的模型相比,具有提示学习的大型语言模型在有毒内容分类和有毒区域检测任务上取得了类似甚至更好的性能,对于解毒化任务,提示学习方法成功降低了平均有毒度,同时保持语义含义。
Aug, 2023
我们评估了 ChatGPT 中的毒性,并发现其毒性取决于提示的不同属性和设置,包括任务、领域、长度和语言,发现创意写作任务的提示可能比其他任务更容易引发有毒反应,德语和葡萄牙语的提示也会使反应的毒性加倍,此外,我们发现早期研究中设计的某些存心恶意的提示不再产生有害反应,希望我们的发现可以指引模型开发者更好地监管这些 AI 系统,并帮助用户避免不良输出。
Nov, 2023
通过引入 PolygloToxicityPrompts(PTP)评测标准,我们对 17 种语言的 425K 自然出现的提示进行了首次大规模多语种毒性评估,发现了语言资源减少和模型大小增加会增加毒性的现象,并且指导性微调方法选择对毒性没有显著影响,揭示了大型语言模型安全性的关键不足之处,并为未来的研究提供了重要的方向。
May, 2024
本文研究了语言模型在训练过程中产生有毒语言并放大的现象,分析研究了提示,解码策略和训练语料对于产生有毒输出的影响,提出一种简单而有效的 “解毒” 方法。和监督基准相比,我们提出的方法在多重设置下显示出更好的毒性降低和生成质量。
Mar, 2022
该研究介绍了新的 “全面优化毒性”(TET)数据集,由手工设计的提示构成,旨在抵消这些模型的保护层,通过广泛的评估,证明了 TET 在评估几种流行的 LLMs 中毒性意识方面的重要作用,凸显了正常提示下可能隐藏的 LLMs 中的毒性,从而揭示了它们行为中更微妙的问题。
May, 2024
本文提出了一种新的基于强化学习的语言模型去毒性方法 - Reinforce-Detoxify,通过引入新的奖励机制,它能够有效地检测出有毒的内容,并减轻与社会身份相关的无意识偏见。实验表明,Reinforce-Detoxify 方法在语言模型去毒性方面优于现有的去毒性方法,并且生成内容不太容易存在社会身份上的偏见。
Feb, 2022
我们创建并发布了 FrenchToxicityPrompts 数据集,评估了 14 种不同的大型语言模型对于 50K 个自然发生的法语提示及其延续的潜在有害性,并希望这一贡献能促进对除英语以外语言的有害性检测和缓解的未来研究。
Jun, 2024
本论文介绍了 ToxiGen,一个新的大规模自动生成的 274k 毒性和良性陈述数据集,用于检测涉及 13 个少数群体的文本。通过使用基于展示的提示框架和诱导循环解码方法来生成微妙的毒性和良性文本,ToxiGen 能够覆盖范围更广的暗含毒性文本,包括更多样化的人口群体。与此同时,研究者通过人类评估表明,94.5%的毒性示例被人类标注者标记为仇恨言论。合理的数据利用对文本分类器的提高有积极的作用。
Mar, 2022