数据中心治理
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
本文概述了数据中心人工智能 (Data-centric AI) 的概念以及其在数据质量、模型性能、后续部署及实际应用中的作用,阐明了数据驱动的 AI 设计方法,明确了 6 个指导原则,对未来 DCAI 的发展方向做了方向性解释。
Nov, 2022
本文提出隐私增强技术在数据交换和分析中减小了隐私与性能之间的权衡,同样的工具可以为 AI 治理提供外部审查、审计和源代码验证的能力,并以信息流的方式查看这些不同的 AI 治理目标,强调了这些解决方案之间的互操作性和重要性。
Mar, 2023
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
本文在社会科学与技术学科之间使用概念映射方法建立了三种不同的语义域 (a) 操作域,(b) 认识域,(c) 规范域,并引入了研究 AI 系统的三个新概念:操作适应性、认识完整性和规范重要性来研究 AI 在政府中的应用,并将其作为政府 AI 概念分类法的维度之一,为推动跨学科对话和促进公共行政重塑提供帮助。
Oct, 2022
本文提出了一种全球语言数据治理的方法,该方法旨在将数据管理围绕利益相关者、价值观和权利组织起来。我们的提议基于分布式治理的先前工作,并通过来自 60 个国家的研究员和实践者的国际研究合作进行了支撑。我们提出的框架是以语言数据为重点的多方国际治理结构,并纳入支撑其工作所需的技术和组织工具。
May, 2022