Nov, 2023

人工通用智能、存在风险和人类风险认知

TL;DR人工通用智能(AGI)尚不存在,但鉴于人工智能技术发展的速度,预计在未来大约二十年内将达到人类水平的智能水平。之后,许多专家预计它将远远超过人类智能,并且迅速超过。超级智能 AGI 的前景对人类构成了存亡风险,因为目前没有可靠的方法来确保 AGI 的目标与人类目标保持一致。作者借鉴公开可用的预测者和观点数据,考察专家和非专家对 AGI 风险的感知。研究结果表明,与其他存在风险相比,人们对 AGI 造成的世界灾难或灭绝的感知风险更大。与其他存在威胁相比,AGI 的感知风险在过去一年中增加的速度也更快(例如核战争或人为引起的气候变化)。专家和非专家一致认为 AGI 是一种紧迫的存亡风险,但目前对于这种共识的基础仍然不清楚。