使用梯度和不变性转换检测不确定性、超出分布和对抗样本的 GIT
通过使用梯度检测对抗性和分布外样本,引入混淆标签来提高神经网络的有效表达,使模型不依赖真实标签来生成梯度。这种基于梯度的方法能够捕捉输入中的异常,击败先进的方法。
Jun, 2022
本文提出了一种新的梯度干预目标方法,用于实验性设计的因果发现,该方法在模拟和现实世界数据集上进行了广泛的实验,并表现出与竞争基线相当的性能,甚至在低数据情况下超越了它们。
Nov, 2022
利用反事实梯度的方差作为信任度量衡,提出了 GradTrust 来探测大规模神经网络的误判率,并在 ImageNet 和 Kinetics-400 数据集上进行验证,结果表明 GradTrust 在 37 个实验模式中表现得最好。
May, 2024
本文提出了一种基于因果性的分布鲁棒性方法,命名为分布鲁棒性通过不变梯度(DRIG),通过利用训练数据中的一般加性干预来实现对未见干预的鲁棒预测,自然地在分布预测和因果性之间插值。在线性设置中,证明 DRIG 在数据相关的一类分布转换中得到鲁棒的预测。此外,还扩展了该方法到半监督领域适应设置以进一步提高预测性能。最后,通过合成模拟和单细胞数据对我们的方法进行了实证验证。
Jul, 2023
采用梯度修正的方法,可进一步提高对抗性转移性,通过对多个转换引入的无用梯度进行修正,我们的方法在 ImageNet 数据集上可以实现 82.07%的平均转移成功率,在单模型设置下胜过其他最先进的方法的平均 6.0%,并且我们已将所提出的方法应用于由阿里巴巴组织的 CVPR 2021 ImageNet 无限制对抗攻击比赛中,攻击成功率在 1558 支队伍中排名第二。
May, 2021
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
深度梯度反转攻击是联邦学习中的一种严重威胁,然而,现有的方法在访问过多的辅助数据时违反了联邦学习的基本数据分割原则。本文提出了一种新的方法,Gradient Inversion Attack using Practical Image Prior (GI-PIP),通过修订的威胁模型进行梯度反转攻击。GI-PIP 利用异常检测模型从较少的数据中捕捉潜在的分布,而基于 GAN 的方法需要消耗大量数据来合成图像。所提取的分布然后被应用于调节攻击过程,作为异常分数损失。实验结果表明,只使用 ImageNet 数据的 3.8%,GI-PIP 实现了 16.12 dB 的 PSNR 恢复,而基于 GAN 的方法则需要超过 70% 的数据。此外,GI-PIP 在分布泛化方面表现出卓越的能力,相比基于 GAN 的方法。我们的方法显著减轻了对辅助数据的要求,对于梯度反转攻击来说,在数量和分布上都产生了更大的威胁于现实世界的联邦学习。
Jan, 2024
本文提出了一种简单而有效的方法,可用于检测任何异常样本,适用于任何预训练的 softmax 神经分类器,在高鲁棒性方面表现优越,同时在检测离群样本和对抗样本方面都取得了最先进的性能,在分类增量学习中有着更广泛的应用。
Jul, 2018