技术秘籍:LLM 破解攻击基准测试
对大型语言模型 (也称为 LLMs) 的滥用进行了研究,发现存在越过社会伦理道德保障的破解攻击,相关研究呈现了不同的破解方法和违规类别,展示了破解提示的攻击效果,以及破解攻击与模型之间的转移性。这一研究强调了对不同破解方法进行评估的必要性,为未来研究提供了启示,并为从业者评估破解攻击提供了基准工具。
Feb, 2024
本文研究了对抗大型多模态语言模型(MLLMs)的问题,通过引入 JailBreakV-28K 评估 LLM 越狱技术对 MLLM 的可迁移性,并评估了 MLLM 对多样越狱攻击的鲁棒性,结果表明 MLLM 存在来自文本处理功能的关键脆弱性,强调了未来在文本和图像输入方面解决 MLLM 对齐漏洞的迫切性。
Apr, 2024
该研究对破解大型语言模型(LLMs)及其防御技术进行了全面分析,评估了九种攻击技术和七种防御技术应用于 Vicuna、LLama 和 GPT-3.5 Turbo 三个不同语言模型的效果,并释放了数据集和测试框架,以促进 LLM 安全领域的进一步研究。
Feb, 2024
通过与领域专家合作,我们提出了一个辅助框架来简化对繁琐的破解分析过程,并设计了一个视觉分析系统,帮助用户评估模型安全性并识别模型弱点。
Apr, 2024
JailbreakBench is an open-sourced benchmark for evaluating jailbreak attacks on large language models, addressing challenges such as the lack of a standard evaluation practice, incomparable cost and success rate computation, and lack of reproducibility in existing works.
Mar, 2024
通过广泛的实证研究,我们对多语言越狱攻击进行了深入探究,提出了一种新的语义保持算法来创建多语言越狱数据集,并对包括 GPT-4 和 LLaMa 在内的开源和商业语言模型进行了详尽评估,并实施了微调缓解方法。我们的发现显示出,我们的缓解策略显著增强了模型的防御能力,将攻击成功率降低了 96.2%。这项研究为理解和缓解多语言越狱攻击提供了宝贵的见解。
Jan, 2024
我们采用两种不同的评估框架来评估 GPT-4 和 LLaMa2 等大型语言模型上越狱攻击的有效性,并开发了一个专门针对越狱任务的综合数据集,为当前研究提供了关键基准,并在未来的研究中建立了一个基础资源。通过与传统评估方法的仔细比较,我们发现我们的评估方法与基准趋势保持一致,同时提供了更深入和详细的评估。我们相信,通过准确评估越狱任务中攻击提示的有效性,我们的工作为评估更广泛的类似或更复杂的提示注入任务奠定了坚实的基础,有望从根本上改变这个领域。
Jan, 2024
大型语言模型(LLMs)和多模态大型语言模型(MLLMs)的快速发展暴露了各种对抗性攻击的漏洞。本文综述了针对 LLMs 和 MLLMs 的越狱研究的最新进展,重点介绍了评估基准、攻击技术和防御策略。与单模态越狱的更先进状态相比,多模态领域仍未得到充分开发。我们总结了多模态越狱的限制和潜在研究方向,旨在激发未来研究,进一步增强 MLLMs 的鲁棒性和安全性。
Jun, 2024
本研究提出了形式主义和已知(和可能的)越狱攻击分类,并在开源和商业 LLM(如 GPT 3.5,OPT,BLOOM 和 FLAN-T5-xxl)上进行了现有越狱方法及其有效性的调查;我们进一步提出了一组有限的提示守卫,并讨论了其对已知攻击类型的有效性。
May, 2023
引入 JAMBench 作为一个有害行为基准测试,通过 160 个手工制作的指令来触发和评估适度保护措施;提出了 JAM 方法,通过越过输入级别的过滤器和生成密文字符来绕过输出级别的过滤器,攻击适度保护措施。经过对四个 LLMs 的广泛实验表明,JAM 比基准模型实现更高的越狱成功率(约 19.88 倍)和更低的过滤率(约 1/6 倍)。
May, 2024