自护:赋予 LLM 保护自身能力
我们提出了一种自我改进的格式化方法,即使在非安全对齐的语言模型中也能实现出色的安全性,通过将我们的方法与几种防御基线进行评估,证明它是针对越狱攻击最安全的无需训练的方法。此外,我们提出了一种格式化方法,可以在更少的迭代中提高自我改进过程的效率,同时降低攻击成功率。我们还观察到,在安全任务中,非安全对齐的语言模型比安全对齐的语言模型表现更好,给出更有帮助且安全的回应。总之,我们的研究发现可以在减少计算成本的同时减少安全风险,使非安全的语言模型可以在真实世界的服务中轻松应用。
Feb, 2024
该研究对破解大型语言模型(LLMs)及其防御技术进行了全面分析,评估了九种攻击技术和七种防御技术应用于 Vicuna、LLama 和 GPT-3.5 Turbo 三个不同语言模型的效果,并释放了数据集和测试框架,以促进 LLM 安全领域的进一步研究。
Feb, 2024
对大型语言模型 (也称为 LLMs) 的滥用进行了研究,发现存在越过社会伦理道德保障的破解攻击,相关研究呈现了不同的破解方法和违规类别,展示了破解提示的攻击效果,以及破解攻击与模型之间的转移性。这一研究强调了对不同破解方法进行评估的必要性,为未来研究提供了启示,并为从业者评估破解攻击提供了基准工具。
Feb, 2024
通过使用一组检测器,我们提出了 “LLMGuard”,这是一个监视用户与 LLM 应用程序交互并对内容进行标记的工具,以应对大型语言模型在企业环境中带来的新机遇和挑战。
Feb, 2024
Jailbreaking is an emerging adversarial attack that bypasses the safety alignment deployed in off-the-shelf large language models. This paper proposes a lightweight yet practical defense called SELFDEFEND, which can defend against all existing jailbreak attacks with minimal delay for jailbreak prompts and negligible delay for normal user prompts.
Feb, 2024
LLMSafeGuard 是一个轻量级框架,通过将外部验证器集成到束搜索算法中,在实时中实现 LLM 文本生成的安全的保障。LLMSafeGuard 在去毒化任务和版权保护任务中表现出优越的性能,减少了 LLM 输出的有毒评分,并减小了版权内容的重复率。此外,LLMSafeGuard 的上下文选择策略降低了推断时间,并提供可调整参数来平衡效果和效率。
Apr, 2024
通过使用语言模型验证内容,我们提出了一种简单的方法来防御对抗性攻击,从而使大型语言模型过滤其自己的回应,即使模型未经人类价值重新调整,也可以避免为用户呈现有害内容。
Aug, 2023
使用角色扮演系统结合知识图谱生成监狱破解方法,验证 LLMs 对监管规定的遵从性,并在不同模态下展示 GUARD 的多样性和对更安全可靠的 LLM 应用的有价值见解。
Feb, 2024
大型语言模型(LLMs)存在潜在的安全隐患,因此需要发展预防措施。本研究揭示了 LLMs 内存在的多语言破解挑战,并针对意外和恶意的风险场景进行了探讨。实验结果显示,在多语言环境中,通过自卫框架进行训练可以显著减少 LLMs 生成的不安全内容。
Oct, 2023