通过在大型通用领域对话语料库上预训练反应选择模型,然后利用小型特定领域数据微调预先训练的模型,本论文提出了一种有效的方法来部署任务导向对话中的响应选择,取得了很好的效果。在六个不同的应用领域,从电子商务到银行业,本方法都表现出了良好的效果。
Jun, 2019
研究使用辅助任务对自回归模型进行改进,提高其在开放域对话生成中的长期语境处理和一致性维护,结果在小型和中型的 GPT-2 模型上表明引入新的辅助任务虽然有所改进,但仍有发展空间。
Apr, 2023
本研究探讨多轮开放域对话的响应生成,并通过辅助任务实现上下文理解,提高了生成模型的质量,同时具有更快的解码速度。
Apr, 2020
本研究探讨了数据稀缺对于多领域任务导向对话系统快速发展的限制,并提出了一种基于 TransferTransfo 和生成模型预训练的对话模型,并在 MultiWOZ 数据集上进行了验证,结果显示该模型可以有效地绕过显式策略和语言生成模块来实现对于任务的导向和推理。该方法有望缓解数据稀缺问题,进而支持构建更具吸引力和更流畅的任务导向的对话代理人。
Jul, 2019
本文介绍了我们在 DSTC-10 上构建对话模型的方法。为缩小口头和书面数据之间的差距,我们采用了大量数据扩增策略,包括人工误差注入和文本转语音转换。我们改良了预训练语言模型,并对每个子任务应用了集成算法,以训练稳健的口头对话模型。我们的方法在官方评估中排名第三,在最终的正式人类评估中排名第二。
Mar, 2022
本研究提出了一种基于预训练语言模型的上下文相应匹配模型,引入了四个自我监督任务,并与 auxiliary tasks 一起多任务训练 PLM-based 响应选择模型,旨在提高多轮响应选择的准确性。实验结果表明,在检索式对话中,引入辅助自我监督任务对多轮响应选择带来了显著的改进,本模型在两个数据集上都达到了最新的最优结果。
Sep, 2020
本论文提出了一种基于 TRADE 的可转移对话状态生成器,结合简单有效的话语标记技术和双向语言模型的多任务学习模型,旨在解决基线性能在长对话上大幅下降的问题,最终在 MultiWOZ 2.0 数据集上实现了 52.04%的联合目标准确性,相对提高了 7.03%,成为了最新的最先进技术。
为了解决注意力语言模型在任务导向对话中的缺陷,这篇论文引入了修改过的训练目标和巨量数据增强技术,研究数据来源的多重组合方式,并通过人工和自动评估证明了方法的高效性,取得了与最先进技术的竞争性表现。
Feb, 2021
提出了一种新颖的基于预训练语言模型的任务驱动对话状态追踪方法,利用基于模式的提示和模式描述提高了性能,适用于多个基准测试(MultiWOZ 2.2、MultiWOZ 2.1 和 M2M),实现了最先进的性能。
Sep, 2021
本文提出了一种基于大规模预训练模型(如 GPT-2)的任务驱动对话系统纯自然语言生成任务,以简化复杂的词语替换处理,但是直接使用会遇到对话实体不一致性和预训练模型精调时的灾难性遗忘问题,因此我们设计了一种新的 GPT-Adapter-CopyNet 网络,它将轻量级 adapter 和 CopyNet 模块融入 GPT-2,以实现更好的迁移学习和对话实体生成,而且实验结果表明,我们的方法在自动和人类评估方面的性能显著优于基线模型。
Aug, 2021