Mar, 2023

一个人跳探戈容易,多人后来者居上吗?不同演示数量下的上下文训练

TL;DR在大型语言模型 (LLMs) 中,我们研究在任务中使用较少的示范是否可以实现 in-context learning (ICL),并且我们发现仅使用一组随机选择的示例也可以实现接近于所有示例的性能,并且 ICL (with 和 w/o CoT) 只使用一组正确示例比大多数以前的工作采用的全部示例 ICL 都表现更好,这暗示了 LLMs 在查找正确示例方面的困难。同时,我们发现 ICL 使用多个示例时的表现与预期情况相反,即当给出更多正确的 / 错误的示例时,ICL 的准确性会下降 / 提高,这暗示着干扰和他们之间的虚假关联可能会误导 ICL。因此,LLMs 培训,ICL 和基准设计中需要解决的若干基本挑战。