Jan, 2025

多并非总是更好?通过差异化和重加权目标增强多样本上下文学习

TL;DR本研究针对大语言模型在多样本上下文学习中的性能下降问题,提出了DrICL优化方法,通过差异化学习和基于优势的重加权目标,提升模型性能。实验结果表明,采用DrICL的模型在多个任务中实现了显著改进,同时开发的多样本ICL基准数据集(ICL-50)为未来研究提供了重要支持。