面向对话人工智能的统一预训练框架
使用 PLATO-2 和课程学习的有效训练过程构建高质量的开放域聊天机器人,该过程涉及两个阶段的学习,第一阶段训练粗糙生成模型来学习响应生成,在细糙的生成模型和评估模型的指导下继续训练来生成多样的响应并选出最佳响应,PLATO-2 在中英文数据上得到了验证和优越性验证,达到了最新的卓越结果。
Jun, 2020
本文提出了基于预训练模型的对话生成框架,采用灵活的注意力机制和离散的潜在变量,解决了响应生成中存在的一对多映射问题,并设计了两种互补的任务对话响应生成和潜在动作识别。实验结果表明,该框架在三个公开数据集上验证了其优越性。
Oct, 2019
本研究基于两个阶段的对话学习引入了 PLATO-K,以加强内部知识记忆和外部知识利用, extensive experiments 显示 PLATO-K 的总体吸引力在闲聊和知识密集型对话方面显著提高了 36.2%和 49.2%,这缓解了 PLATO-K 的知识问题。
Nov, 2022
采用统一 transformer 架构和多方知觉预训练,PLATO-XL 超越其他方法在社交媒体上进行中英文闲聊,同时在基于知识的对话和任务导向的会话等多个会话任务上获得令人满意的结果,证实其作为会话人工智能的基础模型的潜力。
Sep, 2021
我们使用直树形式的 165.6 万条来自新闻、电视字幕和维基百科语料库的数据集(即 Dialogue-Graph)来训练基于 PLATO-2 的大规模日语对话系统 PLATO-JDS。为了改进 PLATO-JDS 中的主题切换问题,我们引入了一个主题切换算法,其中包含一个主题判别器,以在用户输入与前一主题不同时切换到新的主题。通过使用人与机器人聊天策略评估我们的模型,涉及到一致性、信息性、吸引力和人性这四个指标,结果,我们提出的 PLATO-JDS 在 “与人工对话评估” 中获得了平均 1.500 的得分,接近 2.000 的最高得分,这表明了它在日语中具有高质量的对话生成能力。此外,我们提出的主题切换算法获得了平均 1.767 的得分,并优于 PLATO-JDS 0.267,表明它在改进系统用户体验方面的有效性。
Feb, 2023
本文提出了一种面向任务的对话技术(TOD)前置训练语言模型 (OPAL),采用预训练和微调相结合的方法,成功地解决了无法获得大规模任务对话数据的问题,并在 CamRest676 和 MultiWOZ 基准测试中实现了令人兴奋的提升和竞争性表现。
Sep, 2022
PLUG 是一个预训练的语言模型,可以将异构知识源同化为一个统一的知识表示,从而提高知识引导型对话生成任务的泛化能力。该模型可以通过少量的训练样本实现不同下游知识引导型对话生成任务的泛化,且在零样本和少样本场景中表现显著优异。
Dec, 2021
为了解决 Open Domain 对话模型在长时间对话中缺乏理解和记忆能力的问题,我们提出了一种新的任务 —— 长期记忆对话(LeMon),并构建了一个具备长期记忆机制的对话生成框架(PLATO-LTM ),允许系统在不需要多个会话数据集进行模型训练的情况下,准确提取和持续更新长期个人记忆。在 DuLeMon 的结果表明,PLATO-LTM 在长期对话一致性方面可以显著优于基线,从而导致更好的对话互动。
Mar, 2022
本文提出了一种基于大规模预训练模型(如 GPT-2)的任务驱动对话系统纯自然语言生成任务,以简化复杂的词语替换处理,但是直接使用会遇到对话实体不一致性和预训练模型精调时的灾难性遗忘问题,因此我们设计了一种新的 GPT-Adapter-CopyNet 网络,它将轻量级 adapter 和 CopyNet 模块融入 GPT-2,以实现更好的迁移学习和对话实体生成,而且实验结果表明,我们的方法在自动和人类评估方面的性能显著优于基线模型。
Aug, 2021
本研究探讨了数据稀缺对于多领域任务导向对话系统快速发展的限制,并提出了一种基于 TransferTransfo 和生成模型预训练的对话模型,并在 MultiWOZ 数据集上进行了验证,结果显示该模型可以有效地绕过显式策略和语言生成模块来实现对于任务的导向和推理。该方法有望缓解数据稀缺问题,进而支持构建更具吸引力和更流畅的任务导向的对话代理人。
Jul, 2019