本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
本文介绍了一个人工智能(AI)治理框架,名为沙漏模型,该框架的目的是帮助发展和使用 AI 系统的机构将伦理原则转化为实践,与即将出台的欧洲 AI 法相一致。该框架包括环境、组织和 AI 系统层面上的治理要求,并通过连接不同 AI 治理层之间的机制,强调了 AI 治理的系统性。
Jun, 2022
本文回顾了世界上最大的人工智能会议之一通过要求提交作者包含其研究对更广泛社会影响的声明的新型治理举措,探讨了此类举措的风险,挑战和潜在好处,包括改善对影响的预测和识别,更好地与政策和治理专家沟通以及加强负责任研究的规范的潜在好处;同时提出了增加透明度,改进指导,创造积极参与这一过程的激励措施,并促进公众就要求的优点和未来进行公开讨论等建议。
May, 2021
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023