BriefGPT.xyz
大模型
Ask
alpha
关键词
pretraining task diversity
搜索结果 - 1
线性注意力下上下文学习的渐近理论
Transformers 在无需显式先前训练的情况下,基于输入示例学习和执行任务的能力,也称为上下文学习(ICL),是其成功的基础。本研究提供了关于所需样本复杂性、预训练任务多样性和上下文长度对成功 ICL 的明确答案,采用线性关注在 IC
→
PDF
a month ago
Prev
Next