TL;DR开源 AI 软件项目的安全性和测量方法是关键,通过使用代码所有权和时间度量,该研究证实高级所有权与漏洞减少呈正相关,并开发了基于 Python 的命令行应用程序来评估和基准测试项目。
Abstract
As open-source ai software projects become an integral component in the AI
software development, it is critical to develop a novel methods to ensure and
measure the security of the open-source projects for developers. Code
ownership, pivotal in the evolution of such projects, offers in
近年来,生成型人工智能的应用预计将在多个领域引起革命性的改变,领域范围涵盖科学、医学和教育等。这种巨大变革的潜力引发了有关潜在风险的激烈辩论,并引起了一些主导 AI 开发的科技巨头呼吁加强监管的声音。然而,这种监管可能会对开源的生成型 AI 领域产生不利影响。我们主张在即将到来以及中期的时段内进行负责任的开源生成型 AI 模型。为了设定背景,我们首先引入了一个 AI 开放性分类系统,并将其应用于 40 个当前的大型语言模型。然后我们总结了开放源代码和封闭源代码 AI 的不同益处和风险,并提出了从最佳实践到技术和科学贡献的潜在风险缓解措施。我们希望本报告能为当前关于近中期 AI 安全和其他社会影响的公共讨论添加一些急需的声音。