EMNLPMar, 2022

少量样本对话状态跟踪的上下文学习

TL;DR本研究提出了一个基于 in-context learning (ICL) 框架、利用大型预训练语言模型 (LM) 进行零样本和小样本学习的对话状态跟踪 (DST) 方法,重点是通过将 DST 优化为文本到 SQL 问题和使用新颖的对话检索方法,以检索标注对话作为样本来提高对答案问题的准确性。在 MultiWOZ 上的实证结果表明,IC-DST 法在小样本情境中明显优于以往最先进的模型,在只输入固定任务指令的零样本情境下,也比以往的零样本方法表现得更好。