Dec, 2023

通过双向对齐改善上下文学习

TL;DR大型语言模型通过在上下文中学习(ICL)在许多任务上展示了令人印象深刻的少量样本泛化能力。本研究提出了双向对齐(BiAlign)方法,旨在充分利用模型对 ICL 示例的偏好,提高较小模型的 ICL 能力。通过与大型模型的输入偏好对齐,同时对齐令牌级别的输出分布,BiAlign 在语言理解、推理和编码等各种任务中超过了现有基准。