May, 2023

OPT-R:探索解释在精调和提示中对大型语言模型推理能力的作用

TL;DR本文对大型语言模型(LLMs)的推理能力进行了全面调查,重点研究了 Open Pretrained Transformers(OPT)模型作为此类模型的代表。通过在精心筛选的推理语料库上微调三种不同大小的 OPT,我们评估了所有模型在来自 SUPER-NATURAL-INSTRUCTIONS 基准测试的 57 项跨领域任务上的性能。研究发现,在微调时将解释纳入 fewshot 范例对模型的性能没有显著影响,而在提示和微调过程中逐步加入解释会略微但一致地提高分类准确性。