人工智能原则的联结
AI 伦理是学术和政策圈子中一个全球性的讨论话题,近期 meta 分析表明, AI 伦理已经收敛于一组与医学伦理四项经典原则非常相似的原则,但是这种原则取向在 AI 的发展和治理方面可能不会像医学那样成功,因为它们之间存在四个显著的不同点。
Jun, 2019
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
在美国,本研究聚焦于人工智能的伦理及其应用,强调了人工智能在美国经济各个领域以及技术空间的多个方面所产生的影响,以及对企业、政府、学术界和公民社会的影响。论文探讨了 11 个基本的 “伦理原则”,涵盖了透明度、公正、公平、平等、非恶性、责任、问责、隐私、利益、自由、自治、信任、尊严、可持续性和团结。这些原则共同构成了一个指导框架,指导着人工智能技术在美国各个领域和实体中的负责任和伦理发展、部署和利用。论文还讨论了人工智能应用,例如机器学习的革命性影响,并探讨了实施人工智能伦理的各种方法。这次研究对于解决人工智能广泛使用所带来的潜在风险问题至关重要。
Oct, 2023
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023