开源高度高效基础模型:风险、效益和追求开源目标的替代方法评估
近年来,生成型人工智能的应用预计将在多个领域引起革命性的改变,领域范围涵盖科学、医学和教育等。这种巨大变革的潜力引发了有关潜在风险的激烈辩论,并引起了一些主导 AI 开发的科技巨头呼吁加强监管的声音。然而,这种监管可能会对开源的生成型 AI 领域产生不利影响。我们主张在即将到来以及中期的时段内进行负责任的开源生成型 AI 模型。为了设定背景,我们首先引入了一个 AI 开放性分类系统,并将其应用于 40 个当前的大型语言模型。然后我们总结了开放源代码和封闭源代码 AI 的不同益处和风险,并提出了从最佳实践到技术和科学贡献的潜在风险缓解措施。我们希望本报告能为当前关于近中期 AI 安全和其他社会影响的公共讨论添加一些急需的声音。
Apr, 2024
开源生成性人工智能(Gen AI)的应用在许多不同领域中具有革命性的潜力,可能引发对技术潜在风险的热烈讨论和对更严格监管的呼声。本研究使用三阶段框架对开源生成性人工智能模型的风险和机遇进行分析,并认为开源 Gen AI 的好处超过了风险,因此鼓励开源模型、训练和评估数据,并提供一系列管理与开源生成性人工智能相关风险的建议和最佳实践。
May, 2024
开放基础模型具有创新、竞争、决策权分配和透明度等显著优势,但当前的研究还不足以有效地表征相对于现有技术的边际风险,因此需要进一步的研究来实证验证其理论上的利益和风险。
Feb, 2024
生成人工智能(GAI)提供了前所未有的可能性,但其商业化引发了关于透明性、可重复性、偏见和安全性的担忧。我们提出了模型开放性框架(MOF),它是一个按照开放科学、开放源代码、开放数据和开放获取原则对机器学习模型进行评级分类的系统。MOF 要求模型开发生命周期的特定组成部分必须包括并以适当的开放许可发布。该框架旨在防止声称开放的模型的误导,指导研究人员和开发人员以自由许可发布所有模型组件,并帮助公司、学术界和爱好者识别可以安全无限制采用的模型。MOF 的广泛采用将促进更加开放的人工智能生态系统,加速研究、创新和采纳。
Mar, 2024
利用联邦学习技术,我们提出一个治理框架以促进开源人工智能模型的共同开发和维护,确保数据隐私和安全,解决开源人工智能软件工程工具在获取组织资源时面临的障碍。我们还提供开发者的指南,包括数据需求、模型架构、更新策略和版本控制,以促进基于人工智能的软件工程工具的合作。此外,我们的研究还探讨了代码数据异质性对联邦学习性能的影响。
Apr, 2024
前沿 AI 模型的安全性规范与公共安全风险需求有关。建立标准设置流程、注册报告需求以及合规机制是对前沿 AI 模型进行规范的必要步骤。产业自律是重要的第一步,但还需要社会广泛讨论和政府干预以确保规范的制定和遵循。将执法权力授予监管机构和颁发前沿 AI 模型许可制度等选项可实现该目标。本文提出一组初始的安全标准,包括进行部署前的风险评估、外部对模型行为的审查、使用风险评估来指导部署决策以及在部署后监控和响应关于模型能力与应用的新信息。希望本文能为如何平衡公共安全风险与 AI 开发前沿的创新受益的广泛讨论做出贡献。
Jul, 2023
开源开发者在人工智能(AI)的政治经济中成为关键角色,开放模型开发被认为是封闭源 AI 开发的替代方案。然而,我们对开源 AI 的协作实践仍有有限的了解。本文通过对 Hugging Face(HF) Hub 上的开发活动进行三部分数量分析来填补这一空白,HF Hub 是一个流行的构建、分享和展示模型的平台。
May, 2024