Sep, 2024

从零到强的泛化:在没有黄金标签的情况下迭代引发大型语言模型的强能力

TL;DR本研究解决了大型语言模型(LLMs)在缺乏黄金标签时面临的能力限制问题。提出的“从零到强的泛化”新范式,通过迭代提示LLMs对未标注数据进行注释并保留高质量标签,显著提升了模型在下游任务上的表现。实验结果表明,该方法对多种模型尺寸、上下文学习及微调均有效。