通过文化共识理论探索公众对负责任人工智能的舆论
本文探讨了人工智能算法的社会文化和伦理挑战,强调了它们文化响应式发展的必要性,并提出了提高人工智能系统适应当代多元文化社会需求的关键元素的建议。本文还强调了进一步跨学科研究的必要性,以有效解决这些挑战,并强调了在人工智能培育和推动文化责任的重要性。
Dec, 2023
迫切需要将不同文化群体的视角纳入人工智能发展中。我们提出了一个新颖的概念框架,旨在通过独立和相互依赖的文化自我和环境模型来扩大、重新构想和重新建立人工智能的主流愿景。两项调查研究支持该框架,并初步证明人们在想象理想的人工智能时应用了他们的文化模型。与欧美受访者相比,中国受访者认为控制人工智能的重要性较低,与人工智能建立联系的重要性较高,并更倾向于喜欢具有影响能力的人工智能。与欧美受访者和中国受访者相比,非洲裔美国受访者的发现既像欧美受访者又像中国受访者。我们讨论了研究的局限性和未来方向,并强调了开发对世界人口更广泛服务的文化响应和相关人工智能的重要性。
Mar, 2024
研究表明 AI 从业者与普通公众的价值观有所不同,自认为女性和黑人的被调查者对负责任的人工智能价值观更看重公平,自我认知为自由主义者的被调查者更倾向于将公平置于优先地位。
May, 2022
本文通过一项深入的调查研究,分析了跨越八个国家和六个大洲的 10005 名受访者对人工智能的公众意见,结果表明公众普遍认为人工智能会对社会产生重大影响,强烈支持负责任的人工智能开发和使用,并对人工智能的情感进行了四个关键主题的描述(令人兴奋的、有用的、令人担忧的和未来主义的),这些主题的普遍存在性区分了不同国家对人工智能的反应。
Dec, 2019
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
AI 专家和美国普通选民对 18 种具体 AI 风险的可能性和影响以及管理这些风险的政策偏好进行了调查研究,结果显示选民认为 AI 风险更可能发生且更具有影响力,同时主张减缓 AI 发展,因此政策干预应该平衡各类社会规模风险的减轻努力,从而消除关于 AI 风险近期与长期的争论,并强调达成有效政策实施的共识建立的挑战。
Jun, 2024
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021