自动机构:权力与人工智能
研究人工智能(AI)系统的说服力,探讨其未来发展可能造成的影响,如信息泛滥,个性化说服等,并寻找禁止、真实自然语言生成、鉴别 AI 代理和法律补救等解决方案。
Mar, 2023
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
本文基于精神分析学和批判性媒体研究的资源,将大型语言模型(LLMs)作为自动化主体进行分析,并通过这种方式对 AI 行为进行分析,包括其对偏见和伤害的产生。我们介绍了语言模型的重要性和风险,并通过与 OpenAI 的 InstructGPT 进行探索性访谈来作为案例研究。我们的研究发现,这些自动化的语言产生可以引起人的注意,产生进一步的反移情转移。因此,我们得出结论,批判性媒体方法和精神分析理论共同为我们理解由 AI 驱动的语言系统新的强大智能提供了一种有益的视角。
Dec, 2022
通过使用大型语言模型(LLM)、专家法律系统(即法律决策路径)和贝叶斯网络的方法,本文概述了一种应用于自主汽车方面的方法的原理证明,该方法旨在通过对 AI 代理控制设备的代理软件中编码现有规则,实现人工智能代理理解法律并与之推理的能力。
Mar, 2024
介绍利用自然语言和可编程代码同时表达政策的全球数字政府倡议,以及用 AI,自然语言处理和知识图谱缩短从政策文档到可执行决策模型的路线的方法。使用 AI 可帮助政府机构和政策专家扩大人可读和机器可执行政策规则的生产,同时提高透明度,可解释性,追溯性和决策的问责性。
Nov, 2022
为确保人工智能系统具备有效治理所需的合法性,本文提出了 “公众宪政人工智能” 方法,通过多元利益相关者参与制定人工智能发展的原则,形成 “人工智能宪法”,以实现人工智能治理与公众意愿的真正民主合法性,并建立 “人工智能法庭” 以发展 “人工智能判例法”,为在人工智能培训中落实宪政原则提供具体示例。该方法旨在通过民主审议过程来确立人工智能治理的基础,使自动化机构具备真正的民主合法性,应对不断增强的人工智能系统所带来的独特挑战,并确保其与公共利益保持一致。
Jun, 2024
随着人工智能技术的普及,技术所带来的长期危害,如失业或威胁人类安全,引起了人们的担忧。然而,更为迫切和已存在的威胁是 AI 技术今天所面临的问题:对训练数据集中的偏见进行扩大,并迅速对边缘化的人群产生巨大的影响。政府和公共部门机构有责任与技术开发人员建立对话,并发布围绕数据标准的审慎政策,以确保数据集的多样性和防止偏见的扩大,并确保以包容为宗旨构建 AI 系统。
Sep, 2018
本文在社会科学与技术学科之间使用概念映射方法建立了三种不同的语义域 (a) 操作域,(b) 认识域,(c) 规范域,并引入了研究 AI 系统的三个新概念:操作适应性、认识完整性和规范重要性来研究 AI 在政府中的应用,并将其作为政府 AI 概念分类法的维度之一,为推动跨学科对话和促进公共行政重塑提供帮助。
Oct, 2022