生物 AI
AI biases in detecting objects and people in the environment have been explored, but this case study pioneers an exploration into the attitudes of AI towards nature, revealing anthropocentric biases; through experiments and real-life interactions, participants engaged with ChatGPT to co-create narratives with ecocentric attributes, emotions, and views, resulting in amplified ecocentric exchanges and the plan to expand ecocentric materials.
Dec, 2023
本文提出了一种基于内省的代理机制,通过考虑代理自身的能力与环境背景相结合来实现任务目标,以增加现有体验智能机制的功能和实时适应性。
Jan, 2022
本文提出基于 19 项可持续性标准和 67 个指标的 “可持续人工智能 (SCAIS)” 框架,为意识到 AI 系统的开发和应用提供了实用的标准和工具。
Jun, 2023
AI 系统的可信发展需要多学科治理,通过关键的系统检查(如能源消耗)来全面审查其生命周期中的社会影响,以及从计算机科学、社会学、环境科学等多学科角度讨论其互相关联的社会风险和无法同时满足健康的方面,从社会伦理影响评估的角度强调了全面解决 AI 系统紧迫问题的必要性,以揭示其对社会的有害影响,真正实现以人为中心的可信 AI。
Sep, 2023
我们提出了 “具身人工智能” 作为追求 “人工通用智能” 的下一个基本步骤,并对其与当前人工智能进展,特别是大型语言模型进行对比。我们横跨哲学、心理学、神经科学和机器人技术等多个领域探讨了具身概念的演变,以突显具身人工智能如何与静态学习的经典范式有所区别。通过拓宽具身人工智能的范围,我们提出了一个基于认知架构的理论框架,强调感知、行动、记忆和学习作为具身代理的重要组成部分。该框架与弗里斯顿的主动推理原则相一致,为具身人工智能的发展提供了一个全面的方法。尽管人工智能领域取得了进展,但仍存在诸多挑战,如制定新的人工智能学习理论和创新先进硬件等。我们的讨论为未来的具身人工智能研究提供了基础性的指导方针。强调创造具身人工智能代理能够与人类和其他智能体在真实环境中实现无缝通信、协作和共存的重要性,我们旨在引导人工智能社群应对多方面挑战,并抓住在追求人工通用智能过程中出现的机遇。
Feb, 2024
通过社会科学根植的正式概念框架,系统、集成和跨学科地探究人类价值如何支持设计道德人工智能,从而解决价值对齐问题和其他相关的挑战,如人工智能学习人类价值观、将个人价值观聚合到群体中和设计计算机机制来处理价值观。
May, 2023
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023
本文介绍了基于大脑启发的 AI 技术的概念、技术和伦理问题,并提出了一种启发式方法以识别和解决由大脑启发的 AI 产生的伦理问题。结果显示,相对于传统的 AI,大脑启发的 AI 提出了新的基础性和实际的伦理问题,加剧了传统 AI 提出的某些问题。
May, 2023