研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
本文利用数据可视化的工具对 200 个标准化和指导人工智能发展的文件进行分析,探讨不同机构之间原则的共识和相似性,以此为未来的政策制定提供启示和引导。
Jun, 2022
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
在美国,本研究聚焦于人工智能的伦理及其应用,强调了人工智能在美国经济各个领域以及技术空间的多个方面所产生的影响,以及对企业、政府、学术界和公民社会的影响。论文探讨了 11 个基本的 “伦理原则”,涵盖了透明度、公正、公平、平等、非恶性、责任、问责、隐私、利益、自由、自治、信任、尊严、可持续性和团结。这些原则共同构成了一个指导框架,指导着人工智能技术在美国各个领域和实体中的负责任和伦理发展、部署和利用。论文还讨论了人工智能应用,例如机器学习的革命性影响,并探讨了实施人工智能伦理的各种方法。这次研究对于解决人工智能广泛使用所带来的潜在风险问题至关重要。
Oct, 2023
AI 伦理是学术和政策圈子中一个全球性的讨论话题,近期 meta 分析表明, AI 伦理已经收敛于一组与医学伦理四项经典原则非常相似的原则,但是这种原则取向在 AI 的发展和治理方面可能不会像医学那样成功,因为它们之间存在四个显著的不同点。
本研究在全球角度对人工智能伦理原则进行了评估和分析,并提出了如何减轻原则实施差距的建议。
May, 2022
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
人工智能伦理学是一个新兴而重要的学术研究领域,本研究对过去二十年的人工智能伦理学文献进行了全面的计量分析,揭示了一个明显的三阶段发展过程,涵盖了人工智能获得类似人类特征的阶段、人本主义人工智能系统的发展阶段。此外,研究还提出了七个关键的人工智能伦理问题,并指出了关于伦理模型和人工智能识别的两个值得进一步研究的研究空白,期待进一步的学术研究。
Mar, 2024
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018