Feb, 2022

使用 Transformer 将自然语言转化为代码

TL;DR本文使用 CoNaLa 数据集,利用自注意力变换器结构解决了从自然语言描述中生成代码片段的问题,并表明其表现优于循环注意力编码器解码器,使用修改后的反向翻译和周期一致损失以端到端的方式训练模型,实现了 16.99 的 BLEU 分数,超过了 CoNaLa 挑战的先前基线。