TeleChat 技术报告
我们开发并发布了称为 Llama 2 的预训练和微调的大型语言模型集合,该集合的规模从 70 亿到 700 亿参数不等。称为 Llama 2-Chat 的我们的微调语言模型在大多数测试中优于开源聊天模型,并根据我们的人工评估显示对于有用性和安全性而言可能是闭源模型的合适替代品。我们提供了我们微调和安全性改进方法的详细说明,以便使社区能够在我们的工作基础上进行拓展,并为 Llama 2 的负责任发展做出贡献。
Jul, 2023
本文通过三种不同的方法,基于大型语言模型(LLMs)对于 ChatGPT 响应的逐轮质量进行预测,并使用动态少量样本来改善基准,并分析了其他两种方法的性能并提出未来研究的改进。研究表明,Llama 2 模型正在缩小 ChatGPT 和开源 LLMs 之间的性能差距,但发现 Llama 2 模型不能像 ChatGPT 那样从少量样本中受益。
Aug, 2023
本文介绍了通过 fine-tuning instruction data 实现 ChatGPT 之类聊天语言模型的有效性,提出了一个系统设计的、不涉及人类查询、包含 150 万高质量多轮对话的 UltraChat 聊天数据集,使用该数据集 fine-tune 了 LLaMA 模型得到了更好的性能表现,成为领先的开源数据集。
May, 2023
使用聊天向量 (chat vector) 和计算上高效的方法,将对话模型 (ChatGPT) 与人类偏好对齐,展示了对非英语语言特别是中文的适应性及高效性。
Oct, 2023
本研究评估了多语言文本处理技术的热门系统 ChatGPT 在 37 种不同的语言中进行的 7 项不同任务的表现,揭示了其在不同 NLP 任务和语言方面的表现与其他模型相比较差,需要进一步的研究来发展更好的模型和了解多语言学习。
Apr, 2023
本文提出 ChatLLM 网络,利用多个基于 ChatGPT 的对话语言模型协同解决问题的能力,加入了一种反向传递更新系统,展现了这个网络在问题解决方面的显著性能提升。
Apr, 2023
本文对 ChatGPT 和 GPT-4 进行了综合调查,分析了其在各领域的潜在应用,发现 ChatGPT/GPT-4 主要应用于自然语言处理,并在教育、历史、数学、医学和物理等领域具有潜力。同时也提出了伦理问题和未来发展方向。
Apr, 2023
本文介绍了一个名为 ChatLaw 的开源法律大语言模型,它通过特定的数据集、关键词检索和自注意力机制来优化模型在法律领域的表现,解决了参考数据筛选过程中的模型幻觉问题,提升了其解决问题的能力。
Jun, 2023
本文分析了引入生成式人工智能(AI)的大型语言模型(LLMs)—— 如 OpenAI 的 ChatGPT、GPT3.5 和 GPT4、谷歌的 Bard、Large Language Model Meta AI(LLaMA)等 —— 在通信界面(特别是企业无线产品和服务)中应用的能力和局限性,并针对 Craddlepoint 公开数据进行多个用例的比较分析,包括领域自适应、内容连贯性、输入扰动和错误的鲁棒性。我们相信这种评估将为数据科学家提供建立面向领域特定需求的定制对话接口的有用见解。
May, 2023