人权、民主和法治保障框架 —— 人工智能系统的提案
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
欧洲背景下,EU AI 法案提案和 AI 安全可信性标准化申请草案将标准化与基本权利联系起来,但没有提供明确规范关于 AI 标准与基本权利之间的关系、含义或意义。本章旨在澄清这一关键的监管空白,探讨采用基于未来 AI 法案的 AI 标准是否应考虑基本权利,回答是肯定的。某些 AI 系统所带来的高风险特别涉及对基本权利的侵犯,因此减轻此类风险涉及到基本权利的考虑,而未来的标准化应该反映这一点。同时,还需要解决对欧洲标准化进程的有效批评。最后,讨论如何在正在进行的欧洲 AI 系统标准化中实际整合基本权利的考虑。
Jan, 2024
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
本文提出了一种在人性化设计和敏捷开发中建立和维护信任的理论框架,它强调了商业技术的协同创新过程。框架的目的是通过让所有利益相关者参与到项目中来,将人工智能技术与人们一起设计、开发和部署,以创新和改进业务。以医院规划助理为例,展示了该框架在实际应用中的效果。
Sep, 2022
我们的跨学科研究调查了美国法律如何有效应对生成式人工智能对人类价值观的挑战。通过对专家研讨会中构思的多种假设场景进行分析,我们发现现行法律框架在保护自主权,隐私,尊严,多样性,平等和身体 / 心理健康等基本价值观方面存在显著的差距和不确定性。宪法和民事权利似乎不足以提供对 AI 生成的歧视性输出的足够保护。此外,即使我们排除第 230 条规定的责任保护,由于人工智能系统的错综复杂和模糊不清的特点,要证明诽谤和产品责任的因果关系是一项具有挑战性的事业。为了应对生成式人工智能带来的独特和不可预见的威胁,我们倡导法律框架的演进,以认识新的威胁并向行业利益相关者提供主动的、可审计的指导方针。解决这些问题需要深入的跨学科合作,以确定伤害、价值观和缓解策略。
Aug, 2023
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
Aug, 2023