蒙特利尔 AI 伦理学院对欧盟委员会 AI 白皮书的回应
研究了欧洲八个国家的 4,006 名公民对人工智能的观点,发现虽然个人意识水平普遍较低,但超过一半的人对人工智能抱有积极态度。研究结果指出存在着内在的矛盾以及可能干扰信任生态系统和制定政策的趋势。提出了确保法律和道德标准、高水平教育机构的作用以及促进人工智能素养的重要性,为欧洲人工智能治理提供了一些建议。
Aug, 2023
本报告总结了 2021 年 AI 伦理领域的主要问题、趋势、现有的差距,并展望了未来的发展方向,是 AI 伦理领域研究人员和从业者制定研究和开发计划的资源。
Feb, 2022
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
欧盟 AI 监管、混合监管策略、AI 法案等关键词所涵盖的论文讨论了 AI 监管的复杂性以及现行 AI 法案的不足,并呼吁建立协议以规范高性能开源 AI 系统的访问,以进一步完善 AI 技术的有效治理。
Oct, 2023
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023