多 AI 竞赛的可能性和影响
该研究通过分析制度和博弈理论假设,证明了在 “思维自由”、“开放获取” 和人类代表性竞争对手的理性下,超人级人工智能 AI * 不存在。因此,该研究提出了两个立即的公共政策建议:严格监管数字化人脑的克隆,并禁止假设 AI * 访问大脑;AI * 研究应成为广泛甚至公开可获得的。
Sep, 2022
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
基于网络科学的多层人工智能与人类集体智能表征方式,探讨了人工智能与人类集体智能间的相互作用、多样性与互动对系统整体智能的影响,并分析了现实中的 AI 增强集体智能实例,最后讨论了 AI 增强集体智能面临的潜在挑战和未来发展方向。
Mar, 2024
在最大规模的调查中,2778 名在顶级人工智能(AI)期刊发表过论文的研究人员对 AI 进展的速度、高级 AI 系统的性质和影响做出了预测。总体预测显示,到 2028 年,AI 系统有至少 50% 的机会实现几个里程碑,包括自主构建支付处理网站、创建一首无法与热门音乐家的新歌区分的歌曲,以及自主下载和微调大规模语言模型。如果科学持续稳定发展,到 2027 年,无需人类援助的机器在任何可能的任务上超越人类的机会被估计为 10%,到 2047 年概率达到 50%。然而,所有人类职业完全可自动化的机会预计将在 2037 年达到 10%,最迟到 2116 年达到 50%(相比于 2022 年调查的 2164 年)。大多数受访者对 AI 进展的长期价值表示了相当大的不确定性:虽然 68.3% 的人认为超人级 AI 有更多好的结局可能性,但在这些净乐观主义者中,48% 认为极坏的结果(如人类灭绝)至少有 5% 的机会,而 59% 的净悲观主义者给出了至少 5% 的机会,以至于产生极好的结果。在回答关于 AI 的六种不同情景(包括错误信息、权威控制和不平等等)是否应引起 “大量” 或 “极大” 关注的问题时,超过一半的受访者表示同意。关于快速或缓慢的 AI 进展对人类未来更好的观点存在分歧。然而,有广泛的共识认为应优先考虑旨在最小化 AI 系统潜在风险的研究。
Jan, 2024
通过对超过 100 个最近的实验研究进行超过 300 效应大小的元分析,本研究发现:平均而言,人工智能与人类的结合表现明显低于单独人类或人工智能的最佳表现;涉及决策的任务中存在性能损失,而涉及内容创作的任务中则有显著的性能提高;当人类的表现优于单独的人工智能时,结合表现会提高,但当人工智能的表现优于人类时,结合表现则会降低。这些发现突显了人工智能与人类协作效果的多样性,并为改进人工智能系统提供了有前途的方向。
May, 2024
通过分析职业围棋选手过去 71 年中超过 580 万次决策,使用超级人工智能程序评估人类决策质量并比较人类决策和人工智能决策的胜率,结果表明,超级人工智能的出现促使人类玩家从传统策略中脱颖而出,导致他们去探索一些新的策略,从而提高了决策能力。
Mar, 2023
探讨了人类智能与人工智能在预测特定结果方面的优劣,提出了在未来几十年内的劳动分工典范可能是混合智能。这个概念旨在利用人类智能和人工智能的互补优势,以使它们能够比两者分别表现得更好,并探讨了其在组织上下文中的应用。
May, 2021
人工智能是一种新兴技术,有潜力改变社会的许多方面,包括经济、医疗和交通。本文综合了有关人工智能全球影响的最新研究文献,并探讨了它的潜在益处和风险。文章强调了人工智能的影响,包括经济、伦理、社会、安全和隐私以及工作岗位的替代方面。它讨论了围绕人工智能发展存在的伦理关切,包括偏见、安全和隐私违规问题。为了确保人工智能的负责任发展和部署,政府、产业和学术界之间的合作至关重要。文章最后强调了公众参与和教育的重要性,以促进对人工智能对整个社会影响的认识和理解。
Dec, 2023
本文介绍了人道主义应对中的多 AI 系统如何产生以及可能导致的紧急错误行为,讨论了如何更好地设计机制来理解和评估这些系统,从而实现更加可靠的多 AI 系统。
Aug, 2022