Sep, 2024
从零到强的泛化:在没有黄金标签的情况下迭代引发大型语言模型的强能力
Zero-to-Strong Generalization: Eliciting Strong Capabilities of Large
Language Models Iteratively without Gold Labels
TL;DR本研究解决了大型语言模型(LLMs)在缺乏黄金标签时面临的能力限制问题。提出的“从零到强的泛化”新范式,通过迭代提示LLMs对未标注数据进行注释并保留高质量标签,显著提升了模型在下游任务上的表现。实验结果表明,该方法对多种模型尺寸、上下文学习及微调均有效。