AI 问责政策探索
本文通过对欧盟、美国和英国政策文件的调查,针对可解释性人工智能的技术和社会影响进行了主题和缺口分析。发现政策通常基于对解释的粗略观念和要求。最终提出了一组关于如何解释 AI 系统的建议,其中包括定义、可行性、可用性以及分配解释提供者的责任。
Apr, 2023
针对如何推动人工智能的负责任发展,本文提出了 9 个政策建议,并根据各机构类型,对这些政策进行了评估和排序。其中预部署审计与评估、后期责任追究等政策对推动负责任 AI 的发展具有最高的影响但也最难采纳。作者建议美国政府机构和企业高度优先发展预部署审计与评估,而美国国家立法机构应高度优先追究后期责任。此外,本文还提议其他机构也应将负责任 AI 研究和教育、社区利益相关者参与开发工作、支持多样性等作为重点。最终,作者认为各种政策应在各类机构间协同实施。
Nov, 2022
该文讨论了欧盟委员会对人工智能的政策,提出了加强创新和信任的生态系统的建议,并对 AI、物联网、机器人的安全和责任进行了分析,强调了在制定标准和加强现有规定方面的必要性。
Jun, 2020
本文探讨如何规范人工智能系统,研究发现通过两个公共部门采购清单可标识现在和未来技术创新方面的人工智能是否符合规定要求,并且确认需跨学科合作来满足某些要求。
Jun, 2023
本研究旨在探讨现有的人工智能政策,认为其是一个影响人工智能发展的各种政策的综合体,提出了当前 AI 审批如何进行以及如何使其更具有效性、前瞻性,同时从其他科技领域的经验中得出一些改进建议。
Aug, 2016
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
通过重温 Nissenbaum 文章中关于计算机化对责任追究带来的挑战,结合最新的关于关系型责任追究框架的研究,探讨了数据驱动算法系统所面临的困难,并讨论了削弱这些困难的方法。
Feb, 2022