BriefGPT.xyz
大模型
Ask
alpha
关键词
model hijacking
搜索结果 - 2
针对花生的模型:在无训练访问的情况下劫持机器学习模型是可行的
我们提出了一种在推断时间进行模型劫持的简单方法 SnatchML,通过在受害模型的潜在空间中使用距离度量来将未知输入样本分类为与劫持任务类别相关的先前已知样本。同时,我们还探讨了不同的方法来缓解这种风险,其中包括一种名为 meta-unle
→
PDF
a month ago
CVPR
STDLens:面向目标检测的模型劫持鲁棒联邦学习
本文提出了一种名为 STDLens 的三层取证框架,以保护联邦学习(FL)免受模型劫持的攻击。通过识别和驱逐 Trojaned 梯度,STDLens 可以对不同的模型劫持攻击进行保护,并且在识别和删除 Trojaned 梯度方面的精度和假阳
→
PDF
a year ago
Prev
Next