ACLMay, 2023

Few-shot Fine-tuning vs. In-context Learning: 公平比较和评估

TL;DR本文比较了预先训练的语言模型的任务适应的两种替代策略:few-shot fine-tuning 和 in-context learning。通过控制模型、样本数量和参数数量,研究表明 fine-tuned language models 确实可以很好地泛化到 domain 外。虽然两种方法的表现存在巨大变化,并且取决于模型大小和样本数量等属性,说明鲁棒的任务适应仍然是一个挑战。