基于基础模型的市场集中度影响
论文将新的生成模型 LGAIMs 置于当前的信任人工智能法规辩论中,并探讨如何量身定制法律条款以适应其能力,主要包括直接管制、数据保护、内容管理等,并提出四种策略以确保 LGAIMs 可信并为社会利益服务。
Feb, 2023
本文介绍了基础模型,深度学习中通过模型大小和训练数据广度和大小的扩展可以对未来的 AI 开发造成破坏。基础模型在各种任务领域(如自然语言处理和计算机视觉)中实现了最先进的性能,并且通过进一步的改进常常得到更好的表现。此外,模型的单一化可能会将众多特定任务的模型替换为由少数公司控制的更少数量的大型模型,从而导致对 AI 的权力和控制的转移,并出现新兴的行为方式:上下文学习。
Dec, 2022
前沿 AI 模型的安全性规范与公共安全风险需求有关。建立标准设置流程、注册报告需求以及合规机制是对前沿 AI 模型进行规范的必要步骤。产业自律是重要的第一步,但还需要社会广泛讨论和政府干预以确保规范的制定和遵循。将执法权力授予监管机构和颁发前沿 AI 模型许可制度等选项可实现该目标。本文提出一组初始的安全标准,包括进行部署前的风险评估、外部对模型行为的审查、使用风险评估来指导部署决策以及在部署后监控和响应关于模型能力与应用的新信息。希望本文能为如何平衡公共安全风险与 AI 开发前沿的创新受益的广泛讨论做出贡献。
Jul, 2023
领域模型在教育中的应用以及个性化学习、教育不平等、推理能力和适应性学习环境等方面的优势,结合面向教育的代理体系结构的发展,旨在创造动态、包容和适应性强的教育生态系统。同时强调了过度依赖人工智能和创意风险与机会,并展望了一个将人工智能与人类能力和谐结合的未来。
Apr, 2024
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
本文全面探讨了基础模型的训练和服务方法,提供了详细的分类,并总结了挑战和未来发展方向。通过全面的讨论和分析,为未来的研究和应用提供了坚实的理论基础和实践指导,促进基础模型系统的持续创新和发展。
Jan, 2024
本研究提出了一个基于基础模型的系统分类法,涉及预训练和微调,基于基础模型的系统的体系结构设计以及负责任的 AI-by-design。该分类法为基于基础模型的系统设计提供了具体的指南,并突出了设计决策带来的权衡。
May, 2023