Oct, 2023

面向情境学习的信息丰富的少样本提示与最大信息增益

TL;DR本文研究了大型语言模型(Large Language Models, LLMs)在上下文学习(In-context Learning, ICL)方面的能力和稳定性问题,并提出了通过量化数据示例的信息增益(Information Gain, IG)来选择具有最大信息增益的样本的方法,同时引入了模板偏差(template bias)的校准策略,实验证明该方法能够显著提升三种LLMs在六个分类任务上的性能。