Apr, 2024

从词语到数字:在上下文示例中,你的大型语言模型暗自成为一种有能力的回归器

TL;DR预训练的大型语言模型在给定上下文示例时,无需任何额外训练或梯度更新即可进行线性和非线性回归,发现多个大型语言模型在回归任务上的表现能与传统的监督方法如随机森林、装袋法或梯度提升相媲美甚至更好,此外,通过实证研究发现,大型语言模型的性能与上下文示例的数量具有亚线性的关系。