Mar, 2022

少量样本对话状态跟踪的上下文学习

TL;DR本研究提出了一个基于in-context learning (ICL)框架、利用大型预训练语言模型 (LM)进行零样本和小样本学习的对话状态跟踪 (DST)方法,重点是通过将DST优化为文本到SQL问题和使用新颖的对话检索方法,以检索标注对话作为样本来提高对答案问题的准确性。在MultiWOZ上的实证结果表明,IC-DST法在小样本情境中明显优于以往最先进的模型,在只输入固定任务指令的零样本情境下,也比以往的零样本方法表现得更好。