双重治理:中央监管与众包安全机制在生成式人工智能中的交叉
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
泛人工智能与人类的互动达到了前所未有的规模,为巨大的积极影响提供了新途径,但也引发了广泛关注,担忧其对个体和社会可能造成的伤害。本文中,我们认为,对这些人工智能技术的有意义的安全保证只能通过思考人工智能输出与人类行为之间形成的反馈循环如何推动交互走向不同结果来实现。为此,我们设想了从控制论到人类中心的人工智能安全的快速增长能力之间的高价值契机,为未来几十年的人类中心人工智能安全奠定了新基础。
May, 2024
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
近年来,生成型人工智能的应用预计将在多个领域引起革命性的改变,领域范围涵盖科学、医学和教育等。这种巨大变革的潜力引发了有关潜在风险的激烈辩论,并引起了一些主导 AI 开发的科技巨头呼吁加强监管的声音。然而,这种监管可能会对开源的生成型 AI 领域产生不利影响。我们主张在即将到来以及中期的时段内进行负责任的开源生成型 AI 模型。为了设定背景,我们首先引入了一个 AI 开放性分类系统,并将其应用于 40 个当前的大型语言模型。然后我们总结了开放源代码和封闭源代码 AI 的不同益处和风险,并提出了从最佳实践到技术和科学贡献的潜在风险缓解措施。我们希望本报告能为当前关于近中期 AI 安全和其他社会影响的公共讨论添加一些急需的声音。
Apr, 2024
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
为了最大化人工智能技术的好处并最小化其风险,我们需要一个国际的人工智能治理框架,包括一个新的人工智能监管机构来制定规范统一的 AI 技术标准并协调世界各地的政策制定。
May, 2020