EMNLPMay, 2022

评估模型规模对语义解析中组合泛化的影响

TL;DR通过对 11B 参数的 encoder-decoder 模型和 540B 参数的 decoder-only 模型的 fine-tuning 参数、prompt-tuning 和 in-context learning 三种不同方法的比较,发现 pre-trained language models 在 semantic parsing 中在 out-of-distribution compositional generalization 上的 fine-tuning 表现较差,而 in-context learning 虽然具有正向的 scaling curve,但通常被远小于其的 fine-tuned models 胜出,唯独 prompt-tuning 能够胜出 fine-tuning,并为未来的工作提供了有希望的方向。