跨多种深度学习范式的强大后门数据检测
我们提出了一种用于自我监督学习场景下对象检测任务的首个后门攻击方法,名为对象变换攻击(SSL-OTA)。该攻击方法包括两种攻击:数据毒化攻击(NA)和双源混合攻击(DSBA),并且在基准数据集上进行了广泛实验证明了攻击的有效性和实用性,这突出了在基于自我监督学习的对象检测中考虑后门威胁的重要性,并为该领域提供了一种新的视角。
Dec, 2023
自我监督学习(SSL)已经成为应对无人监督数据环境的一种强大范例。然而,最近的研究表明 SSL 容易受到后门攻击的威胁,控制模型以适应攻击者目的。本文引入一种基于频率的新型后门攻击:CTRL,并提出了两种对抗 SSL 中基于频率攻击的防御策略:一种适用于模型训练前,另一种适用于模型推断期间。使用自监督学习的对象分类作为下游任务,我们展示了成功的防御策略,无需重新训练模型。
Mar, 2024
提出了一种通过集群激活屏蔽和新颖的 PoisonCAM 方法来消除自我监督学习背门攻击的痕迹,并在 ImageNet-100 数据集上达到 96% 的背门触发器检测准确率。
Dec, 2023
通过对未标记的数据进行自我监督学习(SSL),本研究调查了基于后门攻击的潜在风险,在没有标签信息的情况下,通过聚类和对比度选择两种毒化策略,证明了在许多 SSL 方法中,无标签后门攻击可以有效地超越随机毒化。
Apr, 2024
本文研究针对自监督学习中的数据投毒后门攻击,提出了一种三步防御管道,其中包括使用训练模型搜索被毒害的样本并将其从训练集中移除的防御算法 PatchSearch。研究结果表明,PatchSearch 是一种有效的防御,其表现优于基线和最先进的防御方法(包括使用额外的干净、可靠数据的方法),可以将模型在包含触发器的图像上的准确性从 38.2% 提高到 63.7%,接近于干净模型的准确性 64.6%。
Apr, 2023
自我监督学习模型容易受到后门攻击,而现有的有效后门攻击方法常常涉及可察觉的触发机制,如有颜色的补丁,容易被人类检查出来。本文提出了一种对自我监督模型有效而又难以察觉的后门攻击方法,通过优化特定触发机制的设计,使其与自我监督学习中的增广转换有区分度,并对人类视觉难以察觉。在五个数据集和七个自我监督学习算法上的实验证明了我们的攻击方式极其有效且隐秘,并且对现有后门防御具有很强的抵抗力。我们的代码可以在此链接中找到。
May, 2024
本研究探讨了基于强数据扩充的无监督自我学习技术在人工智能应用中的重要作用,以乳腺癌检测为例,通过实验验证表明使用该技术可以大幅提高数据利用率,而且更容易迁移到其他数据集,是医学图像人工智能领域迈向无监督学习和去掉传统稀缺标签的重要突破。
Mar, 2022
这项研究探讨了自监督学习(SSL)在合成孔径声纳(SAS)图像识别改进中的应用,结果表明,尽管两个 SSL 模型在少样本情况下可以优于完全监督模型,但在使用全部标签时不能超过其性能,这有助于减少数据标记的时间和成本,同时提供了远程感知中使用 SSL 的证据。
Jul, 2023
自我监督学习在无监督异常检测中起到重要作用,对 SSL 策略的选择、超参数的调整、预处理任务和增强函数的设计以及基于密度估计的预训练模型的利用提出了新的发展和挑战。
Aug, 2023