Dec, 2020
基于多任务学习的预训练语言模型 —— 代码补全
Multi-task Learning based Pre-trained Language Model for Code Completion
Fang Liu, Ge Li, Yunfei Zhao, Zhi Jin
TL;DR本文介绍了一种基于多任务学习的预训练语言模型,采用 Transformer 神经网络架构,通过混合目标函数进行预训练,可以更好地理解和生成代码;在实验中证明了该模型相比现有的方法更为有效,尤其在完成标识符的任务上效果显著。