对抗机器学习与网络安全:风险、挑战和法律影响
近期发现的难以察觉的对抗性攻击可能对现有深度学习网络防御系统构成挑战,可能影响未来的网络攻击防御。本文重点研究了此领域,探讨了人工智能系统漏洞的后果,包括其可能出现的原因、随机化和对抗性示例之间的差异以及潜在的伦理问题。此外,在测试阶段适当地训练人工智能系统并使其为广泛使用做好准备也十分重要。
Aug, 2023
AI 工具在网络安全领域的出现带来了诸多机遇和不确定性。一项针对网络安全领域高级研究生的焦点小组讨论揭示了挑战和机遇的潜在深度和广度。主要问题包括获取开源或免费工具、文件文献、课程多样性以及明确的人工智能网络安全教育伦理原则的表达。解决 “黑匣子” 思维在人工智能网络安全工作中的问题至关重要,同时还需要更加深入和优先教授基础人工智能知识。系统思维和有效沟通也被认为是教育改进的相关领域。未来的人工智能教育家和从业者需要通过实施严格的技术培训课程、明确的文件文献和用于伦理监控人工智能的框架,结合批判性思维和系统思维和沟通技巧来解决这些问题。
Nov, 2023
本文旨在探讨 Adversarial Machine Learning 领域的研究者在攻击机器学习系统时可能存在的合法风险,特别是与计算机欺诈和滥用法案 CFAA 的适用性相关的问题。在分析研究过程中,从模型反转、成员推断、模型窃取、重新编程机器学习系统和污染攻击等方面阐述了问题,并指出该法案适用的相对一致性问题或有望在 2021 年的 Van Buren 诉美国上诉案中得到解决。
Jun, 2020
过去十年中,对抗攻击算法揭示了深度学习工具的不稳定性,这些算法引发了与人工智能中的安全性、可靠性和可解释性相关的问题,尤其是在高风险环境中。从实际角度来看,攻击和防御策略开发者之间发生了一场升级战。在更理论层面上,研究人员还研究了关于攻击的存在和可计算性的更大问题。在这篇文章中,我们对该主题进行了简要概述,重点关注对应用和计算数学领域的研究人员可能感兴趣的方面。
Aug, 2023
在这篇评论中,我们分析了 Autoregressive-Large Language Models (AR-LLMs),如 ChatGPT,在搜索引擎等已建立的应用程序中的广泛集成,引入了具有独特可扩展特性的关键性漏洞,以及它们对自然语言作为攻击向量的依赖和对网络安全最佳实践的挑战,并提出了旨在减轻这些挑战的建议。
Sep, 2023
研究机器学习系统如何应对对抗性操纵时,探讨了计算机犯罪、版权和侵权法与扰动、污染、模型盗窃和模型反演攻击的接口,呼吁机器学习研究人员投资于透明的攻击和防御基准、考虑监管意识下的机器学习系统架构,并在公民自由的背景下更多思考对抗性机器学习问题。
Oct, 2018
该报告调查了恶意使用 AI 的潜在安全威胁的现状,并提出了更好地预测,预防和减轻这些威胁的方法。在分析了 AI 可能如何影响数字,物理和政治领域的威胁格局之后,我们为 AI 研究人员和其他利益相关者提出了四个高层次的建议。我们还建议一些有前途的研究领域,以扩展防御手段的组合,或使攻击变得不那么有效或难以执行。最后,我们讨论了进攻者和防御者的长期平衡,但并未得出确定性结论。
Feb, 2018