开关、梯子和矩阵:用于分类人工智能系统的模型
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
讨论建立和推广符合伦理AI的实践中存在的实际挑战,包括监管压力、冲突商业目标、数据质量、开发过程、系统集成实践和规模问题,认为要考虑AI系统的全面运营上下文,才能有效应对这些伦理风险。
Aug, 2021
本文介绍了一个人工智能(AI)治理框架,名为沙漏模型,该框架的目的是帮助发展和使用AI系统的机构将伦理原则转化为实践,与即将出台的欧洲AI法相一致。该框架包括环境、组织和AI系统层面上的治理要求,并通过连接不同AI治理层之间的机制,强调了AI治理的系统性。
Jun, 2022
本文提供了一种基于多声学文献综述 (Multivocal Literature Review,MLR) 结果的负责任 AI 模式目录,该目录系统地提供了适用于 AI 系统利益相关者的模式,以确保开发的 AI 系统在整个治理和工程生命周期内负责任。
Sep, 2022
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
文章提出一种新方法,强调数据标注在维护机器伦理方面的重要作用,并探讨了伦理基础、系统架构以及伦理定义的问题;同时,该文章还指出,建立伦理人工智能是为了在公司和用户之间建立信任基础。
Feb, 2023
人工智能伦理学是一个新兴而重要的学术研究领域,本研究对过去二十年的人工智能伦理学文献进行了全面的计量分析,揭示了一个明显的三阶段发展过程,涵盖了人工智能获得类似人类特征的阶段、人本主义人工智能系统的发展阶段。此外,研究还提出了七个关键的人工智能伦理问题,并指出了关于伦理模型和人工智能识别的两个值得进一步研究的研究空白,期待进一步的学术研究。
Mar, 2024