EVA:一个基于大规模生成预训练的开放域中文对话系统
本文研究大规模预训练对于中文场景下开放域对话系统的影响,提出 EVA2.0 模型,并通过自动和人工评估证明该模型在公开数据集上表现更优,同时讨论了该工作的局限性和未来方向。
Mar, 2022
本研究使用预训练模式和微调模式对基于 Transformer 的语言模型进行实证研究,探讨其在开放域对话生成任务中的性能表现和多样性,发现各种变形策略对生成结果都有不同程度的影响。
Mar, 2020
本文介绍 PanGu-Bot,一个基于大型预训练语言模型(PLM)PANGU-alpha 的中文预训练开放域对话生成模型。从响应质量、知识和安全三个方面,PanGu-Bot 优于现有的中文对话系统,并且可以轻松地生成情感响应。但是,响应质量、知识正确性和安全性仍然不够完美,需要进一步研究来建立可靠智能的对话系统。
Mar, 2022
采用统一 transformer 架构和多方知觉预训练,PLATO-XL 超越其他方法在社交媒体上进行中英文闲聊,同时在基于知识的对话和任务导向的会话等多个会话任务上获得令人满意的结果,证实其作为会话人工智能的基础模型的潜力。
Sep, 2021
Eva 是一种多模式对话系统,能够帮助用户通过对话实现其目标,包括通过认知用户的意图和计划来解决障碍,以及计划和推理其自己的信念,目标和意图,使用各种表情符号和语音行为进行交流。
Feb, 2023
XuanYuan 2.0 is a pre-trained Chinese chat model created using the BLOOM-176B architecture and trained using the hybrid-tuning method to provide accurate responses in the field of Chinese finance.
May, 2023
本文介绍了一个大型的、经过清洗的中文对话数据集 LCCC,包含基础版和大型版两种版本,共计 680 万和 1200 万对话。数据集的质量通过一套规则和分类器确保。此外,本文还释放了 LCCC-base 和 LCCC-large 的预训练对话模型,这些数据集和模型将有助于研究短文本对话建模。
Aug, 2020
本文提出了一个新的对话预训练框架 DialogVED,使用 Reddit 进行了预训练,并在 PersonaChat,DailyDialog 和 DSTC7-AVSD 数据集上进行了实验,结果表明我们的模型在所有这些数据集上实现了最新的最优结果,其中主要挑战是生成相关且多样化的响应。
Apr, 2022
研究表明,说话者的个性和情感对对话有重要影响,因此考虑个性和情感的影响对于对话生成非常重要。为了解决这个问题,我们提出了 CPED: 一个大型、个性化和情感化的对话数据集,包含了与移情和个性特征相关的多源知识,涵盖性别、大五人格特质、13 种情感、19 种对话行为和 10 个场景。该数据集包含了来自 40 个电视节目的 392 个说话者的 12,000 多个对话,是新一代对话人工智能研究的新开放基准。
May, 2022
GLM-Dialog 是一个拥有 10B 参数的大规模语言模型,使用搜索引擎来访问网络知识进行基于知识的中文对话,在评估方面提出了一种新的评估方法,同时发布了模型检查点和源代码,并通过微信应用程序与用户进行交互,以促进开源模型和可靠对话评估系统的发展。
Feb, 2023