Apr, 2024
GPT:下一个Token预测是否足够?对代码逻辑理解的探索
Is Next Token Prediction Sufficient for GPT? Exploration on Code Logic
Comprehension
TL;DR大型语言模型的研究着重于提升预训练数据的规模和质量,而目前对于其真正理解代码逻辑的任务效果仍然存在疑问。本文提出了一种新的任务,即“逻辑等效代码选择”,证明了当前的大型语言模型在这一任务中表现不佳,并提出了预训练任务“下一个标记预测+”来改善其性能,实验证明该方法对于逻辑等效代码的选择和代码补全任务有显著的改进。