通过研究先进的人工智能系统,我们指出了即将到来的风险,包括大规模社会伤害和恶意使用,以及人类对自主人工智能系统失去控制的不可逆性。鉴于人工智能的迅速发展,我们提出了人工智能研发和治理的优先事项。
Oct, 2023
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
人工智能对人类构成的存在性风险以及立即风险的讨论之间的权衡问题存在不同意见。
Jul, 2023
人工智能和技术奇点对经济、社会和人类命运的影响有积极和消极的解释,需要认真探讨其中的可能性。
Feb, 2016
探讨人工智能对社会政治和人类作为一个整体的影响,提出存在某些已记录的 AI 影响可以成为存在风险因素,强调 AI 对权力动态和信息安全的影响,揭示了 AI 系统对不存在假设未来 AI 能力的存在风险的因果路径。
Sep, 2022
该报告调查了恶意使用 AI 的潜在安全威胁的现状,并提出了更好地预测,预防和减轻这些威胁的方法。在分析了 AI 可能如何影响数字,物理和政治领域的威胁格局之后,我们为 AI 研究人员和其他利益相关者提出了四个高层次的建议。我们还建议一些有前途的研究领域,以扩展防御手段的组合,或使攻击变得不那么有效或难以执行。最后,我们讨论了进攻者和防御者的长期平衡,但并未得出确定性结论。
Feb, 2018
研究人工智能的安全性,认为未来人工智能的故障频率和严重性将不断增加,并将其与网络安全相比较。对于一般人工智能系统失误的影响将比狭窄人工智能系统更深远,建议应加强其安全性以确保零失误的发生,尽管这是不可能的。
Oct, 2016
在这篇评论中,我们分析了 Autoregressive-Large Language Models (AR-LLMs),如 ChatGPT,在搜索引擎等已建立的应用程序中的广泛集成,引入了具有独特可扩展特性的关键性漏洞,以及它们对自然语言作为攻击向量的依赖和对网络安全最佳实践的挑战,并提出了旨在减轻这些挑战的建议。
Sep, 2023
讨论了网络安全、网络威胁以及传统和智能防御措施,并最终以人工智能在网络安全领域未来的前景作为讨论的结尾。
人工智能在网络安全领域的潜力以及人工智能与人类合作的风险因素、伦理和法律问题等方面进行了深入探讨,强调了将人类专家的专业知识与人工智能的计算能力相结合以改善网络防御的重要性。