利用眼动追踪模拟人类注意力以进行神经源代码摘要
通过将人的注意力纳入到 Transformer 模型中,本研究提出了一种用于增强神经代码摘要的方法,名为 EyeTrans。将人的注意力与机器的注意力相结合引起了功能摘要性能高达 29.91%以及通用代码摘要性能高达 6.39%的改善,同时对 AI 在软件工程领域的研究提供了更多以人为中心的方法和数据。
Feb, 2024
本文研究了神经代码模型在代码理解中的应用,提出通过注意力权重对模型进行后处理以支持代码探索,并通过基于眼动追踪的实验比较了几种注意力后处理方法和启发式算法。
Oct, 2022
本文中,我们介绍了一种利用卷积神经网络检测具有局部平移不变性和长远主题型注意力特征的关注神经网络,用于解决将源代码片段极端归纳为类似函数名称的概述的问题,在十个流行的 Java 项目中进行测试,并显示出优于之前注意性机制的性能。
Feb, 2016
对于语言模型在代码摘要中的可解释性的调查结果表明,语言模型的关注点与人类程序员的注意力没有显著关联,且没有发现人类注意力与语言模型生成摘要的质量之间的影响。这一结果呼吁进一步研究可解释性的语言模型和软件工程任务中的训练机制以及其他模型关注度的适用性。
Feb, 2024
本研究提出了一种新的神经网络模型,它可以将源代码的单词和代码结构(AST)结合起来,从而能够生成准确的注释文档。与传统的基于模板的系统不同,该模型可以更好地学习代码结构,即使程序缺乏内部文档,也可以在演示中提供连贯的描述,并在 SE 文献和 NLP 文献中得到进一步的改进和应用验证。
Feb, 2019
源代码摘要是编写源代码行为的自然语言描述的任务。近来,神经源代码摘要已成为研究自动化代码摘要技术的前沿,本文介绍了一种基于语句的记忆编码器,通过训练学习了流程的重要元素,从而实现了基于语句的子程序表示,并展示了与最新技术相比的显著改进。
Jul, 2023
本研究探讨是否可以利用人眼注视追踪信息定义注意力机制以提高视频字幕生成任务的性能,通过提出一种名为 GEAN 的视频字幕模型,并采用人眼注视追踪数据来提供生成句子的时空注意力,以及对语言相似性指标和人工智能通过 Amazon mechanical Turk 进行的评估,证明了由人眼追踪数据指导的空间注意力确实改善了多个字幕方法的性能,并展示了该方法在 VAS 数据集和标准数据集(如 LSMDC 和 Hollywood2)中实现了领先的性能,成为最先进的视频字幕生成方法。
Jul, 2017
本文提出了一种使用图神经网络的自动代码注释生成方法,该方法使用了源代码序列和图结构信息作为输入,使用 210 万个 Java 方法 - 注释对进行评估,并表明比四种基线技术均有所改进。
Apr, 2020
本文探讨使用 Transformer 模型和自注意力机制来生成代码表示以进行源代码概述的任务,并提出其相对编码表现显著优于绝对编码,并通过实验验证其在处理长距离依赖性方面的有效性,实现了领先于现有技术的性能表现。
May, 2020