Feb, 2024

多模式大型语言模型的测试期后门攻击

TL;DR通过对多模态大型语言模型进行测试时背门攻击,使用对抗测试图像将背门注入文本模态中,无需获取或修改训练数据,并能在设置和激活有害效果的时间上解耦。