关键词security vulnerability
搜索结果 - 4
- 通过突出特征抵御间接提示注入攻击
通过使用聚焦技术,我们引入了一种对抗间接提示注入攻击的有效防御方法,该方法能够改进大型语言模型在识别多个输入源时的能力,并显著降低攻击成功率而对任务有效性影响最小。
- 基于图神经网络的链路预测任务的后门攻击
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
- 强制生成模型退化:数据注毒攻击的力量
通过细粒度的实验,我们展示了在大语言模型的精调阶段仅仅使用总数据样本的 1% 即可成功地对大语言模型进行毒化,这是针对自然语言生成任务进行的首次系统性理解并考虑了多种触发方式和攻击设置的毒化攻击。
- 针对深度模型的目标无关攻击:利用迁移学习的安全漏洞
该论文研究了在迁移学习中使用公共预训练模型会存在安全漏洞的问题,因为攻击者可以使用基于暴力破解的方法,通过已知的预训练模型,生成能够触发目标分类器的实例,从而破解安全防护措施。此外,论文也提到了 Softmax 层的基本安全漏洞。