Go AI 的对抗性鲁棒性能否得以保证?
我们通过对冻结的 KataGo 受害者进行对抗性玩家训练,攻击了最先进的 Go-playing AI 系统 KataGo。我们的攻击可以实现超过 99%的胜率,而 KataGo 没有进行树搜索时,当 KataGo 使用足够的搜索以超人能力获胜时,我们的攻击获得了超过 97%的胜率。
Nov, 2022
本研究针对神经网络棋类人工智能的对手状态攻击进行了探究,该方法可扩展至其他棋盘游戏;实验结果表明,加入 1-2 个无意义棋子即可使 AlphaGo Zero 等神经网络棋类 AI 产生错误决策。
Nov, 2022
通过理论和实证研究,我们解决自适应对手提出的挑战,并开发自适应防御策略,从而确定在部署在现实世界中的基于机器学习的系统中确保鲁棒性的有效方法。
Dec, 2023
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
过去十年中,对抗攻击算法揭示了深度学习工具的不稳定性,这些算法引发了与人工智能中的安全性、可靠性和可解释性相关的问题,尤其是在高风险环境中。从实际角度来看,攻击和防御策略开发者之间发生了一场升级战。在更理论层面上,研究人员还研究了关于攻击的存在和可计算性的更大问题。在这篇文章中,我们对该主题进行了简要概述,重点关注对应用和计算数学领域的研究人员可能感兴趣的方面。
Aug, 2023
本文采用博弈论视角研究分类器对抗攻击的鲁棒性,证明了在确定性情况下不存在一个能保证最优鲁棒性的纳什均衡点,并提出了采用随机化方法构建具有鲁棒性的分类器的算法,实验结果验证了该方法的有效性。
Feb, 2020