对具有实体交换的表格的对抗性攻击
在需要高可靠性的领域(如网络安全)中,机器学习模型被广泛使用。然而,这些模型仍然容易受到各种攻击的影响,其中敌对的标签翻转攻击构成了重大威胁。本文对此表示担忧,因为这些攻击可以将高度倾斜的数据集伪装成一个容易解决的分类问题,常常误导机器学习从业者降低防御措施并错误地估计潜在风险。我们提出 FALFA(快速敌对标签翻转攻击)来展示这种风险是敌对目标的一部分,它是一种新颖高效的用于生成敌对标签的攻击方法。FALFA 基于转换敌对目标,并利用线性规划减少计算复杂性。通过使用十个真实世界的表格数据集,我们展示了 FALFA 具有卓越的攻击潜力,强调了对这种威胁的强大防御的必要性。
Oct, 2023
我们提出了一种上下文感知对抗攻击方法,通过扰乱识别实体最具信息量的词语来生成自然而可信的对抗样本,实验证明我们的方法在误导模型做出错误预测方面比基准方法更有效。
Sep, 2023
使用五种不同的大型语言模型(LLMs)进行情感分类任务时,针对三种不同类型的对抗攻击,该研究分析了攻击的有效性、效率和实用性,发现词级攻击更有效,而字符级攻击则更实用且所需的改动和查询数量较少,因此在开发对抗性防御策略以训练更具鲁棒性的 LLMs 用于智能文本分类应用时需考虑这些差异。
Jun, 2024
在这项研究中,我们将对抗性攻击结果视为模型的一个新(未见过的)领域,并将防御问题转化为如何提高模型在这个新领域的鲁棒性。我们关注会话蕴含任务,其中多轮自然语言对话是前提,通过对变换模型进行微调以预测给定对话的假设是真还是假。我们采用同义词交换作为攻击方法,并实施了一些微调策略,并提出了嵌入扰动损失作为提高模型鲁棒性的方法。最后,通过讨论自然语言处理中现实世界的对抗攻击,展示了我们工作的重要性。
May, 2024
本文针对自然语言问题配对 SQL 语句生成中表的变异性,提出了对抗表扰动并创建了 ADVETA 基准来度量 Text-to-SQL 模型的鲁棒性,同时提出了系统性的对抗训练来提高模型的鲁棒性并更好地上下文感知表格数据。
Dec, 2022
针对深度表格模型的健壮性评估和对抗攻击的研究,提出 CAA 对约束表格深度学习模型进行攻击,构建深度表格模型的健壮性评估基准,为提高深度表格模型在各种对抗攻击场景下的健壮性提供安全实践建议。
Nov, 2023
本文介绍了一种新颖的方法,用于修改和调整最先进的算法以处理不平衡的表格数据,以应对欺诈检测方面的安全挑战,实验结果表明,所提出的修改导致了攻击成功率的提高,并获得的对人类来说不那么易察觉的对抗性示例。
Jan, 2021
在本文中,通过对 BERT 模型进行 BERT-on-BERT 攻击、PWWS 攻击和 Fraud Bargain's 攻击 (FBA) 这三种不同的攻击机制的探索,利用 IMDB、AG News 和 SST2 等数据集进行全面对比分析,发现 PWWS 攻击是最强大的对手,在多个评估场景中始终优于其他方法,从而强调其在生成文本分类的对抗示例方面的功效。通过全面的实验,评估了这些攻击的性能,并发现 PWWS 攻击优于其他方法,具有更低的运行时间、更高的准确性和更好的语义相似度得分,这是这篇论文的关键见解。
Apr, 2024