社交人工智能及人工智能生态系统挑战
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019
通过证据的汇集,展示了自然智能是通过不同尺度的互动网络中的智能集体、社会关系和主要进化转变而产生的,这些过程通过种群压力、军备竞赛、马基雅维利选择、社会学习和积累文化等机制促进了新数据的产生,将这些机制整合到智能代理的视角中,表明通过持续的新数据生成实现类人复合创新的可能路径。
May, 2024
构建社交智能 AI 代理(Social-AI)是一个跨学科、多模态的研究目标,涉及创建能够感知、理解、推理、学习并回应其他代理(人类或人工)的情感、行为和认知的代理。过去十年,在自然语言处理、机器学习、机器人技术、人机交互、计算机视觉和语音等几个计算社区中,社交智能 AI 取得了进展。这篇立场论文中,我们确定了一组潜在的技术挑战和开放性问题,以促进社交智能 AI 的研究,并结合社交智能概念和以往的研究进展进行讨论。
Apr, 2024
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
基于网络科学的多层人工智能与人类集体智能表征方式,探讨了人工智能与人类集体智能间的相互作用、多样性与互动对系统整体智能的影响,并分析了现实中的 AI 增强集体智能实例,最后讨论了 AI 增强集体智能面临的潜在挑战和未来发展方向。
Mar, 2024
人工智能能够改善政府和经济政策制定,这篇论文提出了一种新的研究议程,介绍了社会环境设计,这是一个将人工智能与强化学习、计算社会选择等领域相连接的自动化政策制定的通用框架。该框架旨在捕捉一般经济环境,包括对政策目标的投票,并为通过人工智能模拟对政府和经济政策进行系统分析给出方向。我们强调了人工智能政策制定领域未来研究的关键问题,通过解决这些挑战,希望实现各种社会福利目标,促进更具道德和负责任的决策制定。
Feb, 2024
通过引入贝叶斯框架,研究了与生成人工智能合作时可能出现的一种情况:用户可能会获得生产力的提高,但人工智能生成的内容可能无法完全符合他们的偏好。我们揭示了个体决策与人工智能训练之间的相互作用可能导致社会性挑战,输出结果可能变得更加同质化,特别是当人工智能基于人工智能生成的内容进行训练时。解决同质化和偏见问题的方法是改进人工智能与人类的交互,实现个性化输出而不损失生产力。
Sep, 2023
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017
最近的人工智能领域取得的进展,特别是随着大型语言模型(LLMs)的出现,引发了对人工通用智能可能性的重新思考。人工智能越来越接近人类能力,也引起了社会科学研究的关注,导致各种探索将这两个领域相结合。本文通过对先前在人工智能和社会科学结合方面的系统分类,将其分为两个方向,虽然共享相同的技术方法,但在研究目标上有所不同。第一个方向侧重于社会科学用于人工智能,其中人工智能被用作加强社会科学研究各个阶段的强大工具。而第二个方向是关于人工智能的社会科学,它将人工智能代理作为具有类似人类认知和语言能力的社会实体进行研究。通过全面回顾,特别是近期大型语言模型取得的实质性进展,本文引入了一个新的视角来重新评估人工智能和社会科学之间的关系,并提供了一个有序的框架,使研究人员能够理解社会科学用于人工智能和人工智能的社会科学之间的区别和联系,同时总结了促进这两个方向研究的最新实验模拟平台。我们相信随着人工智能技术的不断发展和智能代理在我们日常生活中的日益应用,人工智能和社会科学的结合的重要性将变得更加突出。
Jan, 2024
AI 系统的可信发展需要多学科治理,通过关键的系统检查(如能源消耗)来全面审查其生命周期中的社会影响,以及从计算机科学、社会学、环境科学等多学科角度讨论其互相关联的社会风险和无法同时满足健康的方面,从社会伦理影响评估的角度强调了全面解决 AI 系统紧迫问题的必要性,以揭示其对社会的有害影响,真正实现以人为中心的可信 AI。
Sep, 2023