Sep, 2024
指令微调与上下文学习:重访少量样本计算社会科学中的大语言模型
Instruction Tuning Vs. In-Context Learning: Revisiting Large Language
Models in Few-Shot Computational Social Science
TL;DR本研究解决了大语言模型在计算社会科学任务中的指令微调与上下文学习效果差异的关键问题。通过实验,我们发现上下文学习在大多数任务中优于指令微调,且仅增加训练样本数量并不一定提高模型性能。研究强调了在少量样本情况下优化样本质量和提示策略对提升模型分类性能的重要性。