多边谈判中的妥协与全球人工智能规范
为了最大化人工智能技术的好处并最小化其风险,我们需要一个国际的人工智能治理框架,包括一个新的人工智能监管机构来制定规范统一的 AI 技术标准并协调世界各地的政策制定。
May, 2020
本文利用数据可视化的工具对 200 个标准化和指导人工智能发展的文件进行分析,探讨不同机构之间原则的共识和相似性,以此为未来的政策制定提供启示和引导。
Jun, 2022
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
人工智能的快速发展对新规范形成过程构成了前所未有的挑战,本文探讨了围绕人工智能形成新规范的可能关键问题,研究中央集权或分散化规范形成过程的不同情景,并报告了与 ChatGPT 的对话中观察到的一些新兴规范,旨在提供解读工具以了解社会对人工智能不断渗透的反应,并强调了开放社会在形成未来社会规范时将其正式论述过程锚定在开放、包容和透明的公众讨论中的重要性。
Jul, 2023
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。
Sep, 2022
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
该报告描述了民用人工智能(AI)国际治理安排的设计权衡,并详细介绍了一种方法。该方法将标准、许可和责任制度扩展到全球层面。我们建议各国建立一个国际 AI 组织(IAIO),为符合国际监管标准的国家辖区(而不是公司或 AI 项目)进行认证。各国可以通过采用禁止从非 IAIO 认证辖区进口 AI 供应链货物的规定,来强化这些国际标准。这借鉴了现有国际组织的模式,如国际民用航空组织(ICAO)、国际海事组织(IMO)和金融行动工作组(FATF)。各国还可以对输出到未认证辖区的 AI 产品输入(如专用硬件)采取多边控制。事实上,认证可能需要同时满足进口和输出标准。随着国际行为者在高级 AI 的风险和最低标准方面达成共识,辖区认证制度可以减轻各种潜在危害,包括对公共安全的威胁。
Aug, 2023
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
欧洲背景下,EU AI 法案提案和 AI 安全可信性标准化申请草案将标准化与基本权利联系起来,但没有提供明确规范关于 AI 标准与基本权利之间的关系、含义或意义。本章旨在澄清这一关键的监管空白,探讨采用基于未来 AI 法案的 AI 标准是否应考虑基本权利,回答是肯定的。某些 AI 系统所带来的高风险特别涉及对基本权利的侵犯,因此减轻此类风险涉及到基本权利的考虑,而未来的标准化应该反映这一点。同时,还需要解决对欧洲标准化进程的有效批评。最后,讨论如何在正在进行的欧洲 AI 系统标准化中实际整合基本权利的考虑。
Jan, 2024