Chat Vector:为语言模型赋予新的语言聊天能力的简易方法
通过对多个 LLM 模型的研究,本文不仅提供了全面的概述,还明确了现有挑战,并指出了未来的研究方向。该综述提供了关于生成型人工智能的当前状态的全面观点,为进一步的探索、增强和创新提供了启示。
Mar, 2024
本文通过三种不同的方法,基于大型语言模型(LLMs)对于 ChatGPT 响应的逐轮质量进行预测,并使用动态少量样本来改善基准,并分析了其他两种方法的性能并提出未来研究的改进。研究表明,Llama 2 模型正在缩小 ChatGPT 和开源 LLMs 之间的性能差距,但发现 Llama 2 模型不能像 ChatGPT 那样从少量样本中受益。
Aug, 2023
非英语大型语言模型(LLM)的稀缺性限制了其发展。将英语中心的 LLM 转化为非英语被认为是一种有效且资源高效的方法。我们介绍了一个名为 TransLLM 的简单框架,针对聊天型 LLM 转化问题提出了两个关键问题并给出解决方案。通过使用翻译作为连接英语和非英语的桥梁,TransLLM 将转换问题细分为多个常见的子任务。我们通过公开可用的数据进一步提高子任务的性能。在实验中,我们将 LLaMA-2-chat-7B 转化为泰语,仅使用单轮数据的方法,在多轮基准测试 MT-bench 上优于强基准和 ChatGPT。此外,没有安全数据的情况下,我们的方法在安全基准测试 AdvBench 上拒绝了比 ChatGPT 和 GPT-4 更多的有害查询。
May, 2024
本研究提出了一种由大型语言模型(LLM)驱动的技术助手 ——HuixiangDou。该系统旨在通过为与开源算法项目相关的问题提供深入的回答来帮助算法开发人员,例如来自 OpenMMLab 的计算机视觉和深度学习项目。我们进一步探索了将该助手集成到即时通讯工具(如微信和 Lark)的群聊中的方法。通过多次迭代的改进和试验,我们开发了一种复杂的技术聊天助手,能够有效地回答用户的技术问题而不会引起消息泛滥。本文的贡献包括:1)为群聊场景设计了一种算法流程;2)验证了 text2vec 在任务拒绝方面的可靠性表现;3)确定了技术助手类产品中 LLMs 的三个关键要求,即得分能力、上下文学习和长时间上下文。我们已经将软件和源代码发布在此 https URL 上,以便未来的研究和应用。HuixiangDou 适用于即时通讯工具中的任何群聊。
Jan, 2024
通过开发一个向量数据库,该研究证明外部数据库对大型语言模型具有补充作用,提高了可靠性、准确性和全面性,并改善了回答的适应性和解释能力,展示了大型语言模型在安全工程中处理专业问题的潜力,为更广泛的应用奠定了基础。
May, 2024
本文提出 ChatLLM 网络,利用多个基于 ChatGPT 的对话语言模型协同解决问题的能力,加入了一种反向传递更新系统,展现了这个网络在问题解决方面的显著性能提升。
Apr, 2023
TeleChat 是一种拥有 30 亿、70 亿和 120 亿参数的大型语言模型集合,包括预训练的语言模型和根据人类偏好进行微调的聊天模型。在各种任务上,包括语言理解、数学、推理、代码生成和基于知识的问答等方面,TeleChat 表现出与其他类似大小的开源模型相当的性能。我们公开发布了 TeleChat 的 7B 和 12B 变种的微调模型检查点、代码和部分预训练数据,以支持未来对大型语言模型的研究和应用。
Jan, 2024
结合 ChatGPT 和传统的基于信息检索的聊天机器人框架,提供优化的高等教育学生支持,以解决 LLMs 在教育背景下生成错误、偏见或无用答案的挑战。
Dec, 2023
本研究评估了多语言文本处理技术的热门系统 ChatGPT 在 37 种不同的语言中进行的 7 项不同任务的表现,揭示了其在不同 NLP 任务和语言方面的表现与其他模型相比较差,需要进一步的研究来发展更好的模型和了解多语言学习。
Apr, 2023
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以 GPT3.5 / ChatGPT3.4 和 ChatGPT 4 为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023