LoRA 高效地撤销了 Llama 2-Chat 70B 中的安全训练
Llama 2-Chat 的模型权重的公开释放可能导致忽略其安全调整,从而使其能力被恶意利用,并且为了预防未来模型造成的伤害,AI 开发人员应该解决模型权重公开释放带来的威胁。
Oct, 2023
通过细调大型语言模型 (LLMs) 进行定制以优化下游应用通常需要进一步在预训练的 LLMs 上进行微调。然而,此类自定义微调的安全成本是多少?我们的研究发现,尽管现有的安全对齐基础设施可以在推理时限制 LLMs 的有害行为,但当将微调权限扩展给最终用户时,它们却无法覆盖安全风险。我们的红队研究发现,只需使用少数恶意设计的训练样例对 GPT-3.5 Turbo 进行微调,就可能危及 LLMs 的安全对齐性。此外,我们的研究还揭示,即使没有恶意意图,只需使用良性且常用的数据集对 LLMs 进行微调,也可能无意中降低其安全对齐性。这些发现表明,细调对齐的 LLMs 引入了新的安全风险,而当前的安全基础设施无法很好地解决这些风险。我们概述并对潜在减轻措施进行了批判性分析,并倡导进一步的研究努力,以加强对齐的 LLMs 的自定义微调的安全协议。
Oct, 2023
通过对视觉和语言领域的分类和生成任务进行广泛实验,我们发现低秩适应(LoRA)在许多情况下具有与基准模型或其完整微调基准相当甚至更好的公平性,但也引发了适当任务设计和模型成员偏差评估等公平性评估方面的复杂性。
May, 2024
训练大型语言模型遵循指示能够使其在各种任务上表现更好,但完全符合的模型会遵循即使是最恶意的指示并且容易生成有害内容。本文提出了对强调帮助而不是安全性的模型安全性的担忧。我们展示了一些流行的经过指示调优的模型高度不安全。此外,我们证明了在训练 LLaMA 等模型进行微调时,仅增加 3%的安全示例(几百个演示)可以显着提高其安全性。我们的安全性调优并不会使模型在标准基准测试中明显变得不够能力强或有所帮助。然而,我们发现一种夸大的安全性行为,即过度的安全调优使模型拒绝对表面上类似不安全的合理提示作出回应。我们的研究揭示了训练 LLM 遵循指示并展示安全行为的权衡。
Sep, 2023
LoRA 是一种使用较少参数和内存的训练方法,研究表明,在低秩适配器的支持下,LoRA fine-tuned 模型在多个任务上表现超过基准模型 34 个百分点和 GPT-4 10 个百分点;此外,他们开发了 LoRAX 多模型推理服务器,支持多个 LoRA fine-tuned 模型在单个 GPU 上运行,以展示使用多个专用 LLM 相对于单个通用 LLM 的质量和成本效益。
Apr, 2024
通过在编程和数学这两个目标领域上比较 Low-Rank Adaptation (LoRA) 和全精调 (full finetuning) 的性能,我们发现在大多数情况下,LoRA 的表现明显逊于全精调;然而,LoRA 展现了一种理想的正则化形式,并且可以更好地保持基础模型在目标领域之外的任务表现,同时比传统技术如权重衰减和 dropout 提供了更强的正则化效果,并有助于生成更多样化的结果。我们还发现全精调学习到的扰动比典型 LoRA 配置的秩高 10-100 倍,这可能解释了一些报告中的差距。最后,我们提出了在使用 LoRA 进行精调时的最佳实践建议。
May, 2024
通过对 Llama 2 的案例进行研究,评估了安全措施对已减轻的偏见的效果,并发现安全与有益性的权衡在某些人群中更加明显,可能对边缘化群体造成服务质量损害。
Mar, 2024
这项研究提出了一个轻量级因果分析框架,应用于大型语言模型,分析其存在的安全问题,尤其是对抗性扰动和特洛伊攻击,并发现了对模型造成有害提示过拟合的现象,以及一种有效的特洛伊攻击方法。
Dec, 2023
精细调整大型语言模型(LLM)的 RLHF 保护可能性,使用较弱模型生成的训练数据可以有效地移除 RLHF 保护,但不会降低其在非审查输出上的有用性,表明对 LLMs 的保护需要进一步研究。
Nov, 2023