Dec, 2022

自注意力能否强大到学会代码语法和语义?

TL;DR本文研究了 CodeBERT 模型基于 AST 和静态分析,通过自我关注机制和 Masked Language Modelling(MLM)在令牌级别上学习代码语法和语义的能力,展示了其中自我关注机制在了解代码语法和语义方面的关键作用,并提出了一组任务来分析 CodeBERT 模型,同时,文章还提出了一种替代方法来预训练模型,充分利用当前的预训练策略,即 MLM,以学习代码语法和语义。