BriefGPT.xyz
大模型
Ask
alpha
关键词
visual adversarial examples
搜索结果 - 3
在大型语言模型中使用视觉对抗样本错误使用工具
大型语言模型对多模态处理和工具使用能力的增强带来了新的好处和安全风险,本文揭示了攻击者可以使用视觉对抗样本来引发特定工具使用的能力。攻击可以影响与 LLM 连接的用户资源的机密性和完整性,同时保持隐秘性,并且可泛化到多个输入提示。通过基于梯
→
PDF
9 months ago
ICLR
可人生成的敌制式示例
用区别性渲染的方法,我们首次提出了一种生成真实世界中可由人们创造的对抗性样本的方法,只需要一支马克笔。我们通过绘制少量线条便可以干扰 YOLO 模型,并通过数字和模拟环境进行全面评估,展示了我们的方法的有效性。
PDF
9 months ago
当视觉失败:对 ViT 和 OCR 的文本攻击
本文探讨了基于文字的机器学习模型对视觉输入的抵抗力,并表明他们仍然容易受到以文本编码的视觉对抗性示例的攻击,使用 Unicode 功能组合变音符号来操纵编码文本,演示使用遗传算法生成黑盒威胁视觉对抗性示例的效力,并进行用户研究以证明这些模型
→
PDF
a year ago
Prev
Next