Nov, 2023

具有不同数量极小值的上下文学习函数

TL;DR大型语言模型在上下文学习方面表现出很好的效果,我们的研究通过一个形式化的框架来探索上下文学习,并提出了一个用于近似函数的新任务,我们发现增加极值的数量会降低上下文学习的性能,同时我们的评估结果显示,上下文学习优于两层神经网络模型,并且在所有设置中上下文学习学习速度更快,我们通过一系列小样本实验验证了这些发现。