Nov, 2023

可扩展和可迁移的语言模型黑盒越狱通过角色调制

TL;DR探讨了人设调节作为黑盒越狱方法,用于引导目标模型具备遵循有害指令的个性。我们利用自动生成的越狱命令展示了多种有害完成操作,包括合成甲基苯丙胺、制造炸弹和洗钱的详细指南。这些自动化攻击在 GPT-4 中的有害完成率为 42.5%,是调节之前(0.23%)的 185 倍。这些命令还传输到 Claude 2 和 Vicuna,他们的有害完成率分别为 61.0% 和 35.9%。我们的研究揭示了商用大型语言模型中的又一个漏洞,并强调对更全面的安全保护措施的需求。