水印疫苗:防止水印去除的对抗性攻击
使用深度学习方法中的深度神经网络(DNN)和修正线性单元(ReLU)、渗漏线性单元(leaky ReLU)或软正单元(softplus)激活函数,可以在无维数的空间 - 时间区域中以 Lp 意义逼近具有 Lipschitz 连续非线性性质的半线性热方程的解。
Jun, 2024
介绍了一种新型的物理世界对抗贴片攻击 (ControlLoc),利用两阶段过程,通过识别最佳位置生成贴片,修改感知到的物体位置和形状,在不同条件下以卓越的攻击成功率 (98.1%) 攻击自动驾驶视觉感知,比现有的劫持攻击有效性提高四倍,且在实际车辆测试中达到 77.5% 的攻击成功率,评估了 AD 系统的影响如车辆碰撞率和不必要的紧急停车率 (81.3%)。
Jun, 2024
深度神经网络(DNNs)在许多人工智能(AI)任务中被广泛使用,为了解决其部署带来的巨大的内存、能量和计算成本挑战,研究人员开发了各种模型压缩技术,最近还有越来越多的研究关注定制化 DNN 硬件加速器以更好地利用模型压缩技术,此外,保护安全和隐私对于部署 DNNs 至关重要,我们的研究综述首先涵盖主流的模型压缩技术,如模型量化、模型修剪、知识蒸馏和非线性运算优化,然后介绍了设计可以适应高效模型压缩方法的硬件加速器的最新进展,此外,我们还讨论了如何将同态加密集成到安全 DNN 部署中,最后,我们讨论了硬件评估、泛化和各种压缩方法的集成等几个问题,总体来说,我们旨在从算法、硬件加速器和安全性角度提供高效 DNN 的整体概况。
May, 2024
针对 Open Radio Access Networks (O-RAN) 的机器学习模型进行各种攻击和防御的对抗性机器学习研究,描述了威胁建模、逃逸攻击以及训练防御等内容,并展示了防御措施相较于无防御情况下将覆盖率提高 15% 的结果。
May, 2024
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024
在对抗性机器学习中,神经网络面临着一个重要问题,即强鲁棒性测试精度随时间降低。我们提出了 Moreau 包络 -$\mathcal {A}$,一个新方法来解决这个问题,通过引入 Moreau 包络函数,将原始问题重新构建为极小 - 极小问题,并通过解决内外两个最小化问题来实现统一稳定性,而无需额外的计算开销。在实际场景中,我们展示了 ME-$\mathcal {A}$ 在减轻强鲁棒性过拟合问题方面的有效性。除了在对抗性训练中的应用,这也是统一稳定性分析的一个基本结果,作为第一个在弱凸、非光滑问题上表现出统一稳定性的算法。
May, 2024
本研究对水平联邦学习中的树模型和深度神经网络进行了对比,结果显示当前联邦增强的树模型在不同数据分区下表现优于联邦深度神经网络,并且联邦 XGBoost 模型表现最佳。此外,即使增加客户端数量,联邦树模型的性能仍优于联邦参数化模型。
May, 2024
我们提出了一个可配置的内存层次结构框架,旨在为深度神经网络 (DNNs) 的自适应内存访问模式提供数据,并在最小化所需内存容量的同时维持高加速器性能方面达到优化平衡。
Apr, 2024
使用近似乘法器探索深度神经网络针对对抗攻击的鲁棒性改善,将准确的乘法器替换为近似乘法器在 DNN 层模型中,探索了 DNN 在可行时间内针对各种对抗攻击的鲁棒性,结果显示在无攻击情况下由于近似乘法产生了最高 7% 的准确度下降,而在攻击时,鲁棒准确度提高了最多 10%
Apr, 2024