语言模型的发布策略和社会影响
在 2020 年 10 月 14 日,来自 OpenAI、斯坦福人文中心人工智能研究所和其他大学的研究人员聚集一起,讨论关于 GPT-3 的开放式研究问题,主要聚焦于大型语言模型的技术能力和社会影响。
Feb, 2021
本文研究了大型语言模型在以 AI 为驱动的语言教学和评估系统中的潜在应用,探讨了几个研究领域,并讨论了与语言学习者相关的基于生成式 AI 的风险和伦理考虑。
Jul, 2023
2022 年底,ChatGPT 的发布在 AI 的研究和商业领域引发了巨大的风潮,通过使用监督微调和强化学习来对大型语言模型进行指令调优,它展示了模型能够回答人类提出的问题并按照广泛的任务进行指令遵循,使得大型语言模型的研究兴趣得到了极大的加强,各种新的大型语言模型层出不穷,包括很多专注于大型语言模型的初创公司。然而,尽管封闭源的大型语言模型(如 OpenAI 的 GPT 和 Anthropic 的 Claude)通常表现出色,但开源大型语言模型的进展也非常迅速,并声称在某些任务上实现了与 ChatGPT 持平甚至更好的结果,这对于研究和商业都具有重要的意义。在本研究中,我们在 ChatGPT 发布一周年之际,全面概述了这一成就,并调查了所有开源大型语言模型声称在各项任务中达到与 ChatGPT 持平或更好的情况。
Nov, 2023
该篇综述论文报道了 2022/2023 年间出现的生成式语言模型,尤其是 ChatGPT 模型和其与辅助功能(如微软 Bing)的整合,探讨了这些模型的原理、能力、局限性和未来前景,以及在瑞士操作环境下的应用和当前存在的安全问题。
Mar, 2023
本文简要回顾了 OpenAI 的 ChatGPT 及其开源类似项目,并评估它们在代码可访问性、数据、许可证、训练以及 fine-tuning 等方面的开放程度。我们发现,尽管有许多声称为 “开源” 的项目,但是其中大部分存在不确定的数据来源以及缺乏充分的文档说明,缺少重要的注释调整,有意识的科学文档非常罕见,而这些因素在公平性和责任性方面都显得非常重要。
Jul, 2023
该论文探讨了将大型语言模型(如生成式预训练变换器 GPT)整合到人机合作环境中,通过口头人机交流手段促进可变自主性的快速发展的数字景观中,介绍了一种基于 Unity 虚拟现实(VR)环境的 GPT 驱动多机器人测试平台的创新框架。用户研究表明,用户对于与机器人对话的预设期望较高,却很少尝试探索机器人合作伙伴的实际语言和认知能力,但那些进行探索的用户能从更自然的沟通和人类式的双向交流中受益。我们提供了一组对未来研究和类似系统的技术实施的经验教训。
Dec, 2023