Apr, 2020
TOD-BERT: 面向任务导向对话的预训练自然语言理解
ToD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogues
TL;DR本文通过整合多个人机对话数据集,结合用户和系统记号改良预训练模型,提出了对话任务BERT(TOD-BERT)模型,并通过四个对话应用领域的实验验证,表明TOD-BERT在意图识别、对话状态跟踪、对话行为预测、响应选择等方面超过了强对话模型BERT,并且具有更强的少量数据学习能力。