ACLDec, 2021

利用训练于代码上的语言模型进行少样本语义解析

TL;DR本文研究使用具备上下文的例句,将语义解析问题转化为规范语句的近义词问题,旨在改善大型语言模型在少量训练数据下的性能,并探究在自然语言映射为代码的语义解析任务中,使用预训练模型 OpenAI Codex 能否表现更好。实验发现,相比等效的 GPT-3 模型,Codex 在这种任务中表现更佳,尤其是在像 Overnight 和 SMCalFlow 这样的数据集中。