- RS-Reg:随机平滑的概率性和稳健回归认证
通过定义回归任务中的鲁棒性,灵活地通过概率,我们展示了如何为用户指定的观察到有效输出的概率建立输入数据点扰动(使用 $l_2$ 范数)的上界。我们还展示了在回归模型无约束操作的情况下,基本的平均函数的渐近特性。在处理输出有界的回归模型族时, - 基于机器学习的恶意软件检测器的认证对抗鲁棒性:(去) 随机平滑
本研究提出了一种针对补丁攻击的可验证防御机制,通过将可执行文件划分为非重叠的块,并采用多数投票的方式计算最终预测结果,从而最小化注入内容的影响。此外,引入了预处理步骤,将部分和标头的大小固定为块大小的倍数,从而确保恶意内容仅存在于整数个块中 - 认证的 PEFTSmoothing:具有随机平滑的参数高效微调
通过使用 Parameter-Efficient Fine-Tuning(PEFT)方法,PEFTSmoothing 方法探索了一种使基础模型适应学习带有高斯噪声的数据的替代方式,证明了其在白盒和黑盒设置下的有效性和效率,可以为 CIFAR - 验证多传感器融合系统对语义攻击的稳健性
多传感器融合系统在现代自动驾驶车辆中的感知模块中起着重要作用。本文提出了第一个针对多传感器融合系统的健壮性认证框架 COMMIT,用于抵御语义攻击。通过实证评估,我们证明了 COMMIT 在不同交通场景中具有较高的认证性能,为实践中的可靠自 - 对图注入攻击的集体可信韧性
我们研究图注入攻击下 GNN 的认证鲁棒性。现有研究仅通过验证每个节点提供逐节点的证书,导致认证性能非常有限。在本文中,我们首次提出了集体证书,同时为一组目标节点提供认证。为了实现这一目标,我们将问题形式化为二次约束的线性规划问题,并进一步 - 您的扩散模型实际上是一个可证实稳健分类器
通过推导证据下界(ELBO)来对高斯污染数据的扩散分类器进行泛化,将其与随机光滑化相结合,构建具有非常数 Lipschitz 性质的平滑分类器,实现了 80%+ 和 70%+ 的在 CIFAR-10 上扰动小于 0.25 和 0.5 的认证 - Facebook 关于 fNIRS 数据隐私的报告
本研究的主要目标是为 fNIRS 数据开发隐私保护的机器学习模型训练技术。该项目将在集中设置中构建一个具有差分隐私和认证鲁棒性的本地模型。还将探索协作联合学习,以在多个客户之间训练共享模型,而无需共享本地 fNIRS 数据集。为了防止这些客 - 节点感知的双平滑算法:对图注入攻击的认证鲁棒性
通过节点感知的双平滑框架,我们引入了第一种可证明对抗图注入攻击的通用节点分类任务的鲁棒方法,并通过严密的理论分析建立了我们平滑方案的可证明条件。此外,我们将两个最先进的可证明鲁棒性框架扩展到节点注入攻击,并与它们进行了比较。广泛的评估证明了 - 混合分类器以缓解准确度与健壮性的权衡
机器学习模型在数据驱动的控制系统中取得了巨大的成功,然而标准学习模型通常会受到准确性和鲁棒性之间的权衡的限制,本文建立在最近的 “局部偏置平滑” 方法之上,开发了既具有标准模型高准确性又具有鲁棒模型高鲁棒性的分类器。
- 多尺度扩散去噪平滑
通过多尺度平滑和扩散模型,本论文研究了平滑方法的准确性和认证鲁棒性之间的平衡,以实现对大规模模型的对抗性稳健性。
- 提高认证鲁棒性的简化分解测量
通过考虑认证模型的潜在输出空间,本研究提出了两种改进认证机制分析的独特方法,可以提供数据集独立和数据集相关的认证性能度量,从而使认证半径相对于现有技术能够提高一倍以上。经验证,我们的新方法能够在噪声尺度 $σ = 1$ 下认证比以往多 9% - 朝着高准确度的概率鲁棒性认证
通过提出一种新的方法,同时追求高准确性和具有认证的概率鲁棒性,我们的实验显示该方法在多个模型和数据集上的认证率和准确性方面明显优于现有方法。
- DiffSmooth: 基于扩散模型和局部平滑的可证明鲁棒学习
通过扩散模型实现对强健平滑模型的提高认证鲁棒性的研究,提出了一种具有针对性的扩散平滑管线 DiffSmooth,通过扩散模型进行对抗净化,然后通过简单而有效的局部平滑策略将净化后的实例映射到一个共同区域,并证明了 DiffSmooth 在不 - Text-CRS: 一个通用的文本对抗攻击认证鲁棒性框架
本文提出了一种基于随机平滑的泛化认证鲁棒性框架 Text-CRS,用于自然语言处理中的文本,并对单词级对抗操作进行了证明,实现了显著的准确性提升。
- 增量再平滑:将差分隐私与认证鲁棒性相结合
通过 DP-CERT 框架结合随机平滑技术和差分隐私模型训练,同时提供隐私和认证鲁棒性,从而在 CIFAR10 数据集上显著提高了模型的认证准确性和认证半径。
- 针对单变量时间序列数据的 Wasserstein 对抗样本
提出了基于 Wasserstein 空间的针对时序数据的对抗样本生成方法以及 Wasserstein projected gradient descent 方法,并证明该方法在多个医疗时间序列数据集上具有强大的攻击性能,并提出了一个针对 W - DensePure: 理解扩散模型以提高对抗鲁棒性
通过分析扩散模型的基本属性,建立它们能够提高认证鲁棒性的条件,进而提出了新的 DensePure 方法。DensePure 包括多个通过扩散模型的反向过程(具有不同随机因素)的去噪运行,用于消除对抗性输入。最终预测结果是通过对推断标签的多数 - LOT: 层级正交训练在提高 L2 认证鲁棒性上的应用
该研究提出一种基于层次正交训练和利普希茨限制的深度神经网络训练方法,结合半监督学习来提高模型的认证鲁棒性,并证明其在多个数据集和网络结构上表现出卓越的性能。
- 无监督表示学习的鲁棒性
本文提出了一种无监督的鲁棒性度量,并使用 FGSM 和 PGD 攻击进行无监督的鲁棒性训练,改善了认证鲁棒性等大多数度量,并验证了结果针对线性探针的有效性。
- 重新思考 Lipschitz 神经网络和认证鲁棒性:布尔函数视角
通过用布尔函数表示方法,研究证明了标准 Lipschitz 网络无法在有限数据集和 Lipschitz 函数逼近上进行鲁棒分类。提出了一种新的 Lipschitz 网络方法并通过实验验证了鲁棒性。