The authors are concerned about the safety, health, and rights of the
European citizens due to inadequate measures and procedures required by the
current draft of the EU Artificial Intelligence (AI) Act for the conformity
assessment of AI systems. We observe that not only the current draft of the EU
AI Act, but also the accompanying standardization efforts i
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
欧洲背景下,EU AI 法案提案和 AI 安全可信性标准化申请草案将标准化与基本权利联系起来,但没有提供明确规范关于 AI 标准与基本权利之间的关系、含义或意义。本章旨在澄清这一关键的监管空白,探讨采用基于未来 AI 法案的 AI 标准是否应考虑基本权利,回答是肯定的。某些 AI 系统所带来的高风险特别涉及对基本权利的侵犯,因此减轻此类风险涉及到基本权利的考虑,而未来的标准化应该反映这一点。同时,还需要解决对欧洲标准化进程的有效批评。最后,讨论如何在正在进行的欧洲 AI 系统标准化中实际整合基本权利的考虑。
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。