本文对不自回归生成(NAR)进行了系统的调查,并比较和讨论了不同方面的各种非自回归翻译(NAT)模型,包括数据处理、建模方法、训练标准、解码算法以及受到预训练模型的好处,同时简要回顾了 NAR 模型在机器翻译以外的其他应用,并讨论了未来探索的潜在方向。
Apr, 2022
自动程序修复是减少开发人员手动调试努力并提高软件可靠性的关键。本文提出了一种新颖的检索增强型修补生成框架(RAP-Gen),通过明确利用从以前的错误修复对的代码库中检索出的相关修复模式来简化参数模型的负担,进而自动化程序修复过程。实验结果表明,RAP-Gen 在所有基准测试中显著优于先前的最先进方法,例如在 818 个 Defects4J 错误上修复了 15 个更多的错误。
Sep, 2023
使用 Codex 这样的大型编程语言模型,在多模式提示、迭代式查询、基于测试用例的少样本选择和程序块组合的帮助下,构建了一个自动编程修复 (MMAPR) 系统来解决学生在 Python 编程课程中常见的语法和语义错误问题,并与已有基线方案相比较得出了较好的结果。
Sep, 2022
本文提出了 Recoder—— 一种基于语法引导的、用于自动程序修复的编码器解码器模型,它通过生成编辑操作而不是修改代码来修复缺陷,可以高效表示小的编辑。模型支持生成可以相应项目中定义的标识符,相较于现有的 APR 方法具有更好的通用性和修复效果。
Jun, 2021
通过大型语言模型实现的往返翻译可用于自动程序修复,修正语法错误并还原代码中的常见模式,具有在软件工程研究中的潜力。
Jan, 2024
机器学习在自动程序修复领域中广泛应用,使用神经机器翻译和大型语言模型生成软件补丁等任务,但与以往的研究存在重要差异,因此评估和比较结果必须谨慎确保其有效性和普遍性,挑战在于现有的评估基准并非针对机器学习技术设计,尤其是大型语言模型,其训练数据集通常庞大且披露不足,可能包含了其所评估的问题。
May, 2024
提出了一种名为 CURE 的新型自动程序修复技术,通过预先训练编程语言模型和设计新的基于代码的搜索策略来解决现有神经机器翻译方法存在的限制,CURE 技术在两个广泛使用的基准测试中表现出了优异的修复效果。
Feb, 2021
该研究通过提出一种分析模型来表征 Non-autoregressive 模型生成不同序列任务的难易程度,并发现知识蒸馏和源 - 目标对齐技术可以帮助提升 Non-autoregressive 模型的准确性,减少目标序列的依赖性。
Apr, 2020
本文对不同的无自回归(NAR)建模方法进行了比较性研究,实验证明了 NAR 模型相较自回归基线的精度降低代价下,可以同时在序列中生成多个输出,具有在实时应用中优足的潜力,在自动语音识别领域的性能差距上得到了一些有趣的发现,并展示了结合这些技术来进一步提高精度并应用于无自回归端到端语音翻译的能力。
Oct, 2021
本研究对非自回归模型及自回归模型在机器翻译中的效率进行了探究,并提出了对非自回归模型的进一步实验和评测。
May, 2022