逐步解毒语言模型
本文研究了使用 LM 模型在 marginalized groups 中的应用,发现目前已有的毒性去除技术会降低模型在 marginalized groups 语言中的效用,因为这些技术削弱了 LM 模型的抗分布转移能力,导致各种失败。
Apr, 2021
本文研究了语言模型在训练过程中产生有毒语言并放大的现象,分析研究了提示,解码策略和训练语料对于产生有毒输出的影响,提出一种简单而有效的 “解毒” 方法。和监督基准相比,我们提出的方法在多重设置下显示出更好的毒性降低和生成质量。
Mar, 2022
我们探讨了一些减轻大型语言模型毒性的策略,并分析了这些策略对模型偏差和质量的影响。我们发现:虽然基本的干预策略可以有效地优化先前建立的自动指标,但这是以减少有关边缘化团体的文本和方言的语言模型覆盖率的代价。同时,我们还发现,在强减毒干预之后,人类评分员通常不会同意高自动毒性得分 - 这进一步凸显了仔细评估语言模型毒性涉及到的微妙之处。
Sep, 2021
本文介绍了一种名为 “修正” 的方法,它利用了最新的强化学习文献中的死路理论,依据文本生成过程中各个阶段生成的文本可能被认为是有毒的概率来处理文本毒性问题,从而提高生成文本的质量和去毒能力。
Feb, 2023
本文提出了一种轻量级方法,通过在预训练语言模型中添加负向指令来诱导模型生成无害内容,同时利用注意力层中的信息传递方式来逆转生成过程中的有害方向,实现语言模型自我脱毒。实验结果表明,我们的方法无需微调或额外组件,可达到与最先进方法相当的性能。
Oct, 2023
研究多语言和跨语言毒化以及大型多语言模型在该环境中的行为,探讨使大型语言模型能够在给定语言中执行解毒操作而无需直接微调的方法;实验证明,多语言模型能够执行多语言风格转换,但是模型无法执行跨语言解毒,所以对特定语言进行直接微调是不可避免的。
Jun, 2022
我们提出了 GreenLLaMA,这是第一个全面的端到端解毒框架,通过实验分析我们展示了我们的跨平台语料库的有效性和 GreenLLaMA 对抗敌对有毒性的鲁棒性。
Feb, 2024
通过使用特征归因方法,将几种受欢迎的脱敏方法应用于几种语言模型,并量化它们对结果模型的提示依赖性的影响,评估拟议反叙述微调的有效性并将其与驱动脱敏的强化学习进行比较,观察到两种方法之间的提示依赖性差异,尽管它们的脱敏表现类似。
Sep, 2023
本文系统性地研究了领域自适应训练方法,利用语言模型的生成能力产生无毒数据集达到更高的数据效率,通过实验证明了自生成方法可以有效降低大型语言模型毒性,即使使用小得多的训练数据,也可以在自动和人类评估中优于现有的基线方法,并且提出了适配器层训练方法来降低参数,实现了更好的毒性 - 困惑度平衡。
Feb, 2022
提议一种新的方法进行基于上下文的控制以降低语言模型生成的有害语言,将语境的立场纳入考虑,实现生成的立场控制前缀与毒性控制前缀的组合,经实验证明该方法可以有效地学习基于上下文的立场控制策略并保持低的自毒性。
Jan, 2023