全球范围内人工智能伦理的异同:原则实施差距分析
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
AI 伦理是学术和政策圈子中一个全球性的讨论话题,近期 meta 分析表明, AI 伦理已经收敛于一组与医学伦理四项经典原则非常相似的原则,但是这种原则取向在 AI 的发展和治理方面可能不会像医学那样成功,因为它们之间存在四个显著的不同点。
Jun, 2019
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
在美国,本研究聚焦于人工智能的伦理及其应用,强调了人工智能在美国经济各个领域以及技术空间的多个方面所产生的影响,以及对企业、政府、学术界和公民社会的影响。论文探讨了 11 个基本的 “伦理原则”,涵盖了透明度、公正、公平、平等、非恶性、责任、问责、隐私、利益、自由、自治、信任、尊严、可持续性和团结。这些原则共同构成了一个指导框架,指导着人工智能技术在美国各个领域和实体中的负责任和伦理发展、部署和利用。论文还讨论了人工智能应用,例如机器学习的革命性影响,并探讨了实施人工智能伦理的各种方法。这次研究对于解决人工智能广泛使用所带来的潜在风险问题至关重要。
Oct, 2023
对 AI 从业者的 AI 道德认识和融入挑战进行了调查,发现绝大多数 AI 从业者对 AI 道德有一定的了解,主要源于工作场所规章制度,其中隐私保护和安全是他们最关注的伦理原则。AI 从业者在开发道德的基于 AI 系统中面临的挑战包括一般性挑战,技术相关挑战和人员相关挑战。研究还找出了需要进一步调查的领域,并提出了建议以帮助 AI 从业者和公司将道德融入 AI 开发。
Jul, 2023
本文介绍了 LAIP 的平台链接和分析不同机构提出的人工智能原则,旨在明确建立不同组织提出的人工智能原则之间的共同主题和联系,并调查其独特性。基于这些努力,我们提出,为了人工智能的长期未来,需要将各种人工智能原则纳入一个全面的框架中,并关注它们如何相互作用和完善。
Dec, 2018
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
我们提出了 GREAT PLEA 伦理原则,涵盖了在医疗中应用生成型人工智能所面临的治理、可靠性、公平性、问责制、可追溯性、隐私、合法性、同理心和自主性等伦理困境和挑战。
Aug, 2023