Jun, 2024

代码 - LLMs(不)学习的重要研究

TL;DR研究发现,大型语言模型(code-LLMs)只能编码特定子集的输入令牌之间的关系,并且无法编码语法令牌与标识符之间的关系。此外,与预训练模型相比,微调模型对这些关系的编码较差,并且拥有数十亿参数的更大模型对于代码信息的编码显著较少。