指令调整的可利用性
通过设计一种新的数据污染攻击,本研究进一步识别了 LLMs 中的安全风险,并提出了一种梯度引导的后门触发器学习方法,以高效地识别对手的触发器,并确保对传统防御的逃避,同时保持内容完整性。
Feb, 2024
训练指导调谐模型的众包数据集存在安全隐患,攻击者可通过少量恶意指令注入后门来控制模型行为,导致持久性后门并在多个数据集中实现 90%的攻击成功率,同时需要更加强大的防御措施来应对数据污染攻击,并重视指导众包中数据的质量。
May, 2023
本研究表明对 instruction-tuned LMs 输入恶意抽样将导致模型预测失准,大型 LMs 在此方面更易受攻击,而基于数据过滤或减少模型容量的防御措施提供的保护有限,同时会降低测试准确性。
May, 2023
我们提出了虚拟提示注入(VPI)技术,用于调整指令的大型语言模型(LLM)。VPI 允许攻击者指定虚拟提示,在特定触发场景下引导模型行为,而无需显式地注入模型输入。我们通过污染模型的指令调整数据,演示了 VPI 的风险,并建议采用数据过滤作为一种有效的防御手段。
Jul, 2023
通过细粒度的实验,我们展示了在大语言模型的精调阶段仅仅使用总数据样本的 1% 即可成功地对大语言模型进行毒化,这是针对自然语言生成任务进行的首次系统性理解并考虑了多种触发方式和攻击设置的毒化攻击。
Dec, 2023
本研究开发了一种新的数据污染攻击方法,能够在训练数据中插入少量样本并控制模型预测结果,其中包含一个特定的强制词,同时提出了三种缓解该攻击的防御策略。
Oct, 2020
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
Mar, 2022
基于全面的模型性能至诚态度,我们系统调查了数据量、参数规模和数据构建方法对各种能力发展的影响,并通过新的 40k 人工指导的指令数据集进行了数百个模型检查点(7b 到 33b)的全面指导优化。我们的研究揭示了三个主要发现:(i)尽管数据量和参数规模直接影响模型的整体性能,但某些能力更容易受到其增加的影响,并且可以通过有限数据进行有效训练,而某些能力对这些变化高度抵抗。(ii)人工指导的数据在效率上明显优于 GPT-4 的合成数据,并且可以随着数据量增加不断提高模型性能,而合成数据则无法达到这种效果。(iii)指令数据带来了强大的跨能力泛化性,域外数据的评估结果反映了前两个观察结果。此外,我们还展示了这些发现如何指导更高效的数据构建,从而在公共基准测试中实现实际性能的提升。
Oct, 2023
使用指令调优增强大规模视觉语言模型 (LVLMs) 会提高安全风险,因其开放性可能导致后门攻击。本研究首次经验性地考察了指令调优 LVLMs 期间后门攻击的普适性,揭示了在实际场景中大多数后门策略的某些限制。通过定量评估对视觉和文本领域存在偏差的六种典型后门攻击在图像字幕基准测试上的普适性,我们的研究结果表明,攻击的普适性与后门触发器与特定图像 / 模型的不相关性以及触发器模式的偏好相关。此外,我们基于以上关键观察修改了现有的后门攻击方法,在跨域场景的普适性方面取得了显著改进 (+86% 攻击成功率)。值得注意的是,即使没有访问指令数据集,也可以使用极低的污染率 (0.2%) 成功毒化多模态指令集,攻击成功率超过 97%。本研究强调即使是简单的传统后门策略也对 LVLMs 构成严重威胁,需要更多关注和深入研究。
Jun, 2024