基于深度强化学习的自动源代码摘要改进
本文提出了一个新的端到端模型来同时处理代码摘要生成和检索两个任务通过引入额外的代码生成任务,利用双向学习明确地利用了代码摘要和代码生成之间的概率相关性,通过多任务学习利用用于代码摘要和代码生成的两个编码器训练代码检索任务。作者在现有的 SQL 和 Python 数据集上进行了广泛的实验,结果表明,我们的模型可以显著提高代码检索任务的结果,同时在代码摘要任务的 BLEU 得分方面也能够达到竞争性的性能。
Feb, 2020
介绍使用强化学习的演员 - 评论家框架作为神经网络摘要生成模型培训框架,框架中包括政策网络、二进制分类器、修改的最大近似似然度量和参数学习方法,该框架达到了比现有最优秀方法更好的效果。
Mar, 2018
源代码摘要是编写源代码行为的自然语言描述的任务。近来,神经源代码摘要已成为研究自动化代码摘要技术的前沿,本文介绍了一种基于语句的记忆编码器,通过训练学习了流程的重要元素,从而实现了基于语句的子程序表示,并展示了与最新技术相比的显著改进。
Jul, 2023
本文探讨使用 Transformer 模型和自注意力机制来生成代码表示以进行源代码概述的任务,并提出其相对编码表现显著优于绝对编码,并通过实验验证其在处理长距离依赖性方面的有效性,实现了领先于现有技术的性能表现。
May, 2020
通过多任务学习范式,利用三个以摘要为重点的任务训练编码器,提出了一种新的改进代码摘要的方法,这三个任务包括单向语言建模(ULM)、掩码语言建模(MLM)和动作词预测(AWP)。实验证明,我们的方法 ESALE 在四个数据集上的表现明显优于基线模型,包括 BLEU、METEOR 和 ROUGE-L 三个广泛使用的指标。
Jul, 2024
本文提出了一种使用 BART 算法的自动方法,通过深度学习技术,在 StackOverflow 上生成 API 的摘要,并使用 ROUGE 和 BLEU 指标对其进行评估,结果表明使用深度学习算法可以提高摘要的质量,并且在精确率、召回率和 F-measure 上表现出色,且运行速度为之前的工作的 4.4 倍。
Oct, 2023
本文提出了一种使用图神经网络的自动代码注释生成方法,该方法使用了源代码序列和图结构信息作为输入,使用 210 万个 Java 方法 - 注释对进行评估,并表明比四种基线技术均有所改进。
Apr, 2020
本研究提出了一种新的抽取式 - 生成式混合框架来自动生成代码摘要,该框架结合了抽取式方法和生成式方法,能够提取关键的事实性细节,并生成简明、类似于人工撰写的自然语言摘要,实验证明 EACS 显著优于现有的技术,包括 BLEU,METEOR 和 ROUGH-L 等三个广泛使用的评估指标。
Jun, 2022
提出了一种基于编码器 - 解码器和 RNN 的自注意力神经网络模型,通过组合监督和强化学习来训练和生成连贯性和可读性更强的长文摘要,与目前最先进模型相比,在 CNN / Daily Mail 数据集上取得了 41.16 的 ROUGE-1 得分,并且人工评估表明我们的模型产生了更高质量的摘要。
May, 2017
本研究提出了一种新的神经网络模型,它可以将源代码的单词和代码结构(AST)结合起来,从而能够生成准确的注释文档。与传统的基于模板的系统不同,该模型可以更好地学习代码结构,即使程序缺乏内部文档,也可以在演示中提供连贯的描述,并在 SE 文献和 NLP 文献中得到进一步的改进和应用验证。
Feb, 2019