可解释抽象化摘要生成的神经模块树
本研究提出了一种新的神经网络模型,它可以将源代码的单词和代码结构(AST)结合起来,从而能够生成准确的注释文档。与传统的基于模板的系统不同,该模型可以更好地学习代码结构,即使程序缺乏内部文档,也可以在演示中提供连贯的描述,并在 SE 文献和 NLP 文献中得到进一步的改进和应用验证。
Feb, 2019
本文提出了一种新颖的抽象摘要框架,利用意义表示(AMR)的树库进行研究。在该框架中,源文本被解析为一组 AMR 图,该图被转换为摘要图,然后从摘要图生成文本。我们专注于图形到图形的转换,该转换将源语义图减少为摘要图,并利用现有的 AMR 解析器并假设最终可用 AMR-to-text 生成器。该框架具有数据驱动、可训练性和不特定于特定领域的特点。在金标准 AMR 注释和系统解析上进行的实验显示出有希望的结果。
May, 2018
采用皮线式提取性 - 生成性方法,提炼文本信息,生成对章节的摘要。利用成分级别的提取组件,以脊树信息实现句法呈现,并采用边界分数损失函数鼓励提取器分辨出正面实例和负面实例。该方法表现优于现有小说章节数据集上的之前研究工作。
Nov, 2022
本研究提出了一种新的抽取式 - 生成式混合框架来自动生成代码摘要,该框架结合了抽取式方法和生成式方法,能够提取关键的事实性细节,并生成简明、类似于人工撰写的自然语言摘要,实验证明 EACS 显著优于现有的技术,包括 BLEU,METEOR 和 ROUGH-L 等三个广泛使用的评估指标。
Jun, 2022
本文提出了一种基于语义理解的神经生成式摘要模型,通过对显要内容的语义解释学习生成高质量摘要。同时引入一种新的对抗样本评估体制,证明该模型比流行的指针 - 生成式模型更好地识别了离题信息,并且人工评估结果表明本文模型生成的摘要更具信息量和可信度,且冗余度更低。
Oct, 2018
本文提出了一种新颖的神经网络架构用于抽象概括及句法解析的同时生成摘要,同时还描述了一种新颖的人工评估协议来评估摘要是否符合原始含义,经评估证明该方法在多个摘要数据集上与强基线相比表现出有竞争力的结果。
Nov, 2019
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
该研究探讨了使用神经机器翻译模型进行源代码自动生成文档的机器翻译任务,并阐述了抽象语法树在源码的机器学习研究中的重要性和 Tree-LSTM 方法的局限性,并提出了一种新方法 Multi-way Tree-LSTM 来应对此问题,对比现有技术取得更好的结果。
Jun, 2019
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
源代码摘要是编写源代码行为的自然语言描述的任务。近来,神经源代码摘要已成为研究自动化代码摘要技术的前沿,本文介绍了一种基于语句的记忆编码器,通过训练学习了流程的重要元素,从而实现了基于语句的子程序表示,并展示了与最新技术相比的显著改进。
Jul, 2023