规范人工智能操纵:应用行为经济学和心理学的洞察力以增强欧盟人工智能法的实用性
提供改进欧盟人工智能法案概念清晰度和可实施性技术建议,包括心理模型定义个性特质、行为包括偏好、清晰定义潜意识、操纵和欺骗技术,区分对个人和对群体的利用以及对数字治疗的监管不足的警示。总体上,建议加强欧盟人工智能法案对模糊概念的定义,以加强对有害人工智能操纵的精确规定。
Aug, 2023
欧盟 AI 监管、混合监管策略、AI 法案等关键词所涵盖的论文讨论了 AI 监管的复杂性以及现行 AI 法案的不足,并呼吁建立协议以规范高性能开源 AI 系统的访问,以进一步完善 AI 技术的有效治理。
Oct, 2023
对欧盟 AI 规则的初稿进行了分类,并与计算机科学和法律专家一起将其按照 AI 法案进行分类,表明需要更加明确具体的规定,并且只有大约 30%的 AI 系统被 AI 法案约束,其余分类为低风险。
Mar, 2023
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
本文探讨了欧盟即将发布的人工智能法规是否会在全球范围内产生 “布鲁塞尔效应”,并重点研究了该法规可能对其他司法管辖区的影响,认为欧盟的 “高风险” AI 系统法规在大型美国科技公司中很可能产生 “事实上的布鲁塞尔效应”,同时该法规对于开发和部署 “可信人性化的 AI” 提供了全球范围内的首批操作规定。
Aug, 2022
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。
Sep, 2022
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
该文章提出了一种方法,通过利用产品质量模型来解释欧盟 AI 法案对高风险 AI 系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保 AI 系统既符合确定的质量标准,也符合法案对高风险 AI 系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟 AI 法案的合规性。
Mar, 2024
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022