Feb, 2024
Se²: 顺序示例选择用于上下文学习
$\texttt{Se}^2$: $\textit{Se}$quential Example $\textit{Se}$lection for In-Context Learning
Haoyu Liu, Jianfeng Liu, Shaohan Huang, Yuefeng Zhan, Hao Sun...
TL;DR该论文介绍了一种名为 Se^2 的顺序感知方法,通过使用大型语言模型在不同上下文的反馈来捕捉示例之间的内在关系和顺序信息,从而显著丰富了示例的上下文相关性和相关性,并利用束搜索来寻找和构建示例序列,提高了质量和多样性。在 23 个自然语言处理任务上进行的广泛实验表明,Se^2 明显优于竞争方法,在随机选择的基础上相对提升了 42%。深入分析显示了所提出策略的有效性,突出了 Se^2 在各种场景下的出色稳定性和适应性。