TL;DR本研究旨在探讨现有的人工智能政策,认为其是一个影响人工智能发展的各种政策的综合体,提出了当前 AI 审批如何进行以及如何使其更具有效性、前瞻性,同时从其他科技领域的经验中得出一些改进建议。
Abstract
We argue that there already exists de factoartificial intelligence policy -
a patchwork of policies impacting the field of AI's development in myriad ways.
The key question related to AI policy, then, is not whe
针对如何推动人工智能的负责任发展,本文提出了 9 个政策建议,并根据各机构类型,对这些政策进行了评估和排序。其中预部署审计与评估、后期责任追究等政策对推动负责任 AI 的发展具有最高的影响但也最难采纳。作者建议美国政府机构和企业高度优先发展预部署审计与评估,而美国国家立法机构应高度优先追究后期责任。此外,本文还提议其他机构也应将负责任 AI 研究和教育、社区利益相关者参与开发工作、支持多样性等作为重点。最终,作者认为各种政策应在各类机构间协同实施。
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。