AI 代码生成器与安全:友还是敌?
生成式人工智能技术(GenAI)可能被用于积极和消极目的,这篇论文讨论了 GenAI 所带来的双重用途困境,并提出了针对此问题的短期和长期目标,旨在引发学术界对此重要主题的深入讨论。
Aug, 2023
基于人工智能的代码生成器在帮助开发人员从自然语言中编写软件方面起到了重要作用。本文提出了一种新颖的数据污染攻击,其影响是生成易受攻击的代码。我们对这些攻击对代码生成的最新模型的影响进行了广泛评估,并讨论了潜在的解决方案。
Mar, 2024
本文介绍了 AI 安全与对抗攻击的概念,探讨了机器学习产品的威胁和 AI 产品开发中常见的陷阱,适用于 AI 软件产品的开发人员、设计师、管理者和研究人员。
Apr, 2023
该研究分析了在 AI 代码生成器上采用不同相似度度量方式的适用性,比较了自动估计和人工评估之间的差异,并提供了实用性见解。
Dec, 2022
过去十年中,对抗攻击算法揭示了深度学习工具的不稳定性,这些算法引发了与人工智能中的安全性、可靠性和可解释性相关的问题,尤其是在高风险环境中。从实际角度来看,攻击和防御策略开发者之间发生了一场升级战。在更理论层面上,研究人员还研究了关于攻击的存在和可计算性的更大问题。在这篇文章中,我们对该主题进行了简要概述,重点关注对应用和计算数学领域的研究人员可能感兴趣的方面。
Aug, 2023
本文提出了一种名为 AI Programmer 的机器学习系统,使用遗传算法和一种紧密限制的编程语言自动生成软件程序,并包括嵌入式解释器等特殊设计,经过实验证明其软件生成能力和性能仅需使用主流 CPU 即可实现。
Sep, 2017
该文介绍了在计算机教育领域中,最近出现的几种可行且可自由使用的 AI 驱动代码生成工具带来的机会和挑战,并呼吁社区快速采取行动以决定如何利用和克服这些挑战。
Dec, 2022
该报告调查了恶意使用 AI 的潜在安全威胁的现状,并提出了更好地预测,预防和减轻这些威胁的方法。在分析了 AI 可能如何影响数字,物理和政治领域的威胁格局之后,我们为 AI 研究人员和其他利益相关者提出了四个高层次的建议。我们还建议一些有前途的研究领域,以扩展防御手段的组合,或使攻击变得不那么有效或难以执行。最后,我们讨论了进攻者和防御者的长期平衡,但并未得出确定性结论。
Feb, 2018
泛人工智能与人类的互动达到了前所未有的规模,为巨大的积极影响提供了新途径,但也引发了广泛关注,担忧其对个体和社会可能造成的伤害。本文中,我们认为,对这些人工智能技术的有意义的安全保证只能通过思考人工智能输出与人类行为之间形成的反馈循环如何推动交互走向不同结果来实现。为此,我们设想了从控制论到人类中心的人工智能安全的快速增长能力之间的高价值契机,为未来几十年的人类中心人工智能安全奠定了新基础。
May, 2024