ACLJan, 2021

减少先验知识、增加单语数据的自然语言代码生成

TL;DR通过利用较大的单语语料库,本研究调查了一个基于通用 transformer 的 seq2seq 模型是否可以在最小限度的代码生成特定归纳偏差下实现与其他语言模型相当的性能,结果显示其在 Django 上实现了 81.03%的完全匹配准确性和 32.57 的 CoNaLa BLEU 分数,均达到了我们所知道的最好水平,这为在实践中构建准确的语义解析器提供了可能更容易的途径。