本文提出了自注意力神经体系结构,采用多任务学习方式,以解决代码补全中的结构性保留和长期依赖问题,并与最先进的方法进行了比较。
Sep, 2019
我们提出了一种结合静态分析和语言模型预测词汇分布的方法,以实现代码完成实时性、准确性及有效性,提高模型的适用性与可用性。
Apr, 2020
本论文介绍一种神经语言模型,采用稀疏指针网络,以捕捉非常长的依赖关系,旨在提高 IDE 的代码建议系统的准确性,研究结果表明该模型相对于 LSTM 基线的代码建议准确率提高了 5 个百分点,得益于其 13 倍更准确的标识符预测功能。
Nov, 2016
本文旨在利用实现自 Li 等人的神经网络进行代码自动补全,我们将该神经网络应用了介于字符和单词编码之间的字节对编码(BPE)对源代码文件进行处理,而无需先转换为抽象语法树(AST)。我们实现了两个模型:一个注意力增强的 LSTM 模型和一个指针网络模型,其中指针网络最初是用来解决词汇表外单词问题的。我们感兴趣的是 BPE 是否能够替代指针网络进行代码自动补全。
本文介绍了一种基于多任务学习的预训练语言模型,采用 Transformer 神经网络架构,通过混合目标函数进行预训练,可以更好地理解和生成代码;在实验中证明了该模型相比现有的方法更为有效,尤其在完成标识符的任务上效果显著。
Dec, 2020
本研究旨在解决深度学习模型内存消耗大的问题,通过模块化的神经框架探索多种技术,并设计一种新颖的基于静态分析和细粒度令牌编码相结合的神经重排序模型,其消耗内存仅为 6MB,计算单个补全所需仅 8ms,最高精度达到 90%。
该论文提出了一种基于多层次范式的、利用评论进行推荐的神经网络结构,主要包括基于指针的学习方法和多指针学习方案,该结构相对于其他现有的方法在概率指标上有着显著优势。
Jan, 2018
本论文提出了一种有键 - 值注意机制的神经语言模型,能够输出不同的 key 和 value 表示,同时对下一个单词的分布进行编码,比现有的基于记忆的、神经语言模型表现更好,但发现该方法主要利用最近五个输出表示的记忆。
Feb, 2017
本文介绍了一种中间训练策略,利用新的自监督培训目标 Next Phrase Prediction(NPP),以提高预训练语言模型在文本自动完成任务中的表现,并快速适应特定领域。初步实验结果显示,我们的方法能够在电子邮件和学术写作领域的自动补全中胜过基线。
Sep, 2021
本研究提出了一种基于模板的指针网络模型,该模型利用预构建的特定领域会话存储库中的相关答案作为指导答案,并将指导答案并入编码和解码过程中,以提高神经网络任务导向对话系统的性能。实验表明,该模型在四个常用任务导向数据集上的表现明显优于最先进方法。
Jun, 2021