Dec, 2021
利用训练于代码上的语言模型进行少样本语义解析
Few-Shot Semantic Parsing with Language Models Trained On Code
TL;DR本文研究使用具备上下文的例句,将语义解析问题转化为规范语句的近义词问题,旨在改善大型语言模型在少量训练数据下的性能,并探究在自然语言映射为代码的语义解析任务中,使用预训练模型OpenAI Codex能否表现更好。实验发现,相比等效的GPT-3模型,Codex在这种任务中表现更佳,尤其是在像Overnight和SMCalFlow这样的数据集中。