利用标签不确定性理解内在鲁棒性
介绍了一种新型的物理世界对抗贴片攻击 (ControlLoc),利用两阶段过程,通过识别最佳位置生成贴片,修改感知到的物体位置和形状,在不同条件下以卓越的攻击成功率 (98.1%) 攻击自动驾驶视觉感知,比现有的劫持攻击有效性提高四倍,且在实际车辆测试中达到 77.5% 的攻击成功率,评估了 AD 系统的影响如车辆碰撞率和不必要的紧急停车率 (81.3%)。
Jun, 2024
针对 Open Radio Access Networks (O-RAN) 的机器学习模型进行各种攻击和防御的对抗性机器学习研究,描述了威胁建模、逃逸攻击以及训练防御等内容,并展示了防御措施相较于无防御情况下将覆盖率提高 15% 的结果。
May, 2024
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024
在对抗性机器学习中,神经网络面临着一个重要问题,即强鲁棒性测试精度随时间降低。我们提出了 Moreau 包络 -$\mathcal {A}$,一个新方法来解决这个问题,通过引入 Moreau 包络函数,将原始问题重新构建为极小 - 极小问题,并通过解决内外两个最小化问题来实现统一稳定性,而无需额外的计算开销。在实际场景中,我们展示了 ME-$\mathcal {A}$ 在减轻强鲁棒性过拟合问题方面的有效性。除了在对抗性训练中的应用,这也是统一稳定性分析的一个基本结果,作为第一个在弱凸、非光滑问题上表现出统一稳定性的算法。
May, 2024
使用 RankED 方法实现边缘检测,解决了正负类别不平衡和标签不确定性的问题,在 NYUD-v2、BSDS500 和 Multi-cue 数据集上取得了新的最优表现。
Mar, 2024
时间序列模型在对数据流进行估计时通常假设数据没有被破坏。然而,本研究提供了一种新颖的概率视角,探讨了自私的对手如何通过破坏数据来操纵隐马尔可夫模型的推断,进而影响决策者的结论。研究中开发了一套考虑实际不确定性和不同攻击目标的数据破坏问题,提出了三种从频率主义和贝叶斯主义角度解决问题的方法,并通过大量经验测试证明了每种方法的有效性。该研究强调了隐马尔可夫模型在面对对手活动时的弱点,从而促使我们采取鲁棒化技术来保证其安全。
Feb, 2024
本文对于整合对抗机器学习与问答系统的领域进行了综述,包括传统和多模态背景下的对抗性示例生成技术。通过系统分类,回顾了采用的技术,从传统问答模型出发,探索了基于规则的扰动和高级生成模型,并扩展了对多模态问答系统的研究,分析了各种方法,并研究了生成模型、序列到序列架构和混合方法。研究还对对抗性数据集、评估指标和防御策略进行了讨论,并呈现了关于对抗性问答的广泛文献资料。最后,本文还考虑了对抗性问题生成的未来发展方向,突出了可以促进在对抗性挑战环境下的文本和多模态问答系统的潜在研究方向。
Dec, 2023
通过降维预训练表示空间,这篇论文展示了如何在情感识别任务中减少模型复杂性而不降低性能,并且模拟标签不确定性以提高模型的泛化能力和鲁棒性。此外,论文比较了情感模型在声学恶化下的鲁棒性,并观察到降维表示能够保持与全维表示相似性能而不发生显著的情感性能回归。
Dec, 2023
该研究探讨了标签噪声分类器的稳健性,旨在提高模型对复杂实际场景中的噪声数据的抵抗能力,并通过整合对抗机器学习和重要性重新加权技术来解决标签噪声对实际应用的影响。
Dec, 2023