Dec, 2022

谨慎的数据筛选稳定上下文学习

TL;DR本文提出两种方法优化 ICL 在训练过程中因训练样本选择不当而导致的性能不稳定问题:CondAcc 和 Datamodels。这两种方法均通过对训练样本进行评分,然后选择得分最高的样本作为训练子集。在五个任务和两个 LLMs 上进行的实验中,CondAcc 和 Datamodels 的性能分别比从整个训练集中随机抽样高出 7.7%和 6.3%。分析表明,选出的稳定子集样本与平均样本的差异不大,并不是序列长度和 perplexity 的异常值。