BadAgent:在 LLM 代理中插入和激活后门攻击
借助大型语言模型(LLMs)的快速发展,已经开发出了基于 LLM 的代理程序,用于处理各种实际应用,包括金融、医疗和购物等。然而,目前 LLM-based 代理的安全问题尚未得到充分研究。本研究首先调查了一种典型的安全威胁,即 backdoor 攻击,对 LLM-based 代理进行了初步研究,并提出了相应的数据污染机制来实施代理程序的 backdoor 攻击。广泛的实验结果显示,LLM-based 代理严重受到 backdoor 攻击的影响,表明迫切需要进一步研究防御 LLM-based 代理的 backdoor 攻击。
Feb, 2024
该研究论文侧重于细调方法,系统地将后门攻击分类为全参数细调、参数高效细调和无细调攻击,并讨论了未来研究中关键问题,例如无需细调的攻击算法和更隐蔽的攻击算法,以填补现有后门攻击调查的知识空白。
Jun, 2024
这篇论文介绍了第一个全面的框架用于针对基于大型语言模型的决策系统的后门攻击,系统地探索了如何在微调阶段通过不同的渠道引入此类攻击。具体而言,作者提出了三种攻击机制和相应的后门优化方法,以攻击 LLM 决策管道中的不同组件:单词注入、场景操纵和知识注入。作者进行了广泛的实验,并展示了他们提出的后门触发器和机制的有效性和隐蔽性。最后,作者批评了自己提出方法的优点和缺点,突出了 LLM 在决策任务中固有的漏洞,并评估了保护 LLM 决策系统的潜在防御方法。
May, 2024
最近的研究表明,大型语言模型(LLMs)容易受到称为后门攻击的安全威胁。本研究揭示了在聊天模型上实现的一种新颖的后门攻击方法,通过在不同轮次的用户输入中分发多个触发场景,并只在历史对话中出现了所有触发场景时激活后门,从而实现了高攻击成功率。
Apr, 2024
通过将后门注入问题转化为一个轻量级知识编辑问题,BadEdit 攻击框架直接改变 LLM 参数以引入后门,从而在注入技术的多个方面上具有优越性。
Mar, 2024
在这篇论文中,我们通过后门攻击的视角探索了大型语言模型的脆弱性。与现有的后门攻击不同,我们的组合后门攻击(CBA)将多个触发关键词分散在不同的提示组件中,这使得攻击更加隐蔽。我们的实验证明 CBA 在自然语言处理和多模态任务中都是有效的。我们的工作强调了对基础大型语言模型的可信度进行增加安全性研究的必要性。
Oct, 2023
本文探讨了将后门攻击技术应用于多智能体强化学习系统中的可能性,并证明了在两个竞技型强化学习系统中,头部代理可以通过其自身动作触发受害代理的后门,并且当后门被激活时,受害者的获胜率下降了 17% 至 37%。
May, 2021
该文章就神经网络 (DNNs) 的后门攻击进行了系统研究,提出了一个新的 NLP 后门攻击框架,BadNL,其中包括了三种构造触发器的方法,即 BadChar、BadWord 和 BadSentence,攻击成功率几乎完美,并且几乎不影响原始模型的效用。
Jun, 2020
本文提出了一种新的方法,将包含触发器的输入直接映射到预训练 NLP 模型的预定义输出表示,而不是目标标签,从而可以将后门引入广泛的下游任务中,而无需任何先前的知识,通过各种触发器类型的实验,论证了该方法对于不同的分类和命名实体识别等微调任务以及不同的模型(如 BERT、XLNet、BART)是普适的,并且不可避免地引入了严重威胁。
Oct, 2021