本文介绍了一种称为 Self-Correction 的方法,该方法可以用于解决序列生成应用中存在的语义约束问题,该方法通过将完美的基本生成器与学习逐步纠正其输出的单独的纠正器分离来实现。我们证明,即使纠正器比基本生成器小得多,在数学程序合成、词汇约束生成和毒性控制等三个不同的生成任务上,Self-Correction 仍然优于基本生成器。
Oct, 2022
使用递归神经网络 (RNNs) 生成自动化反馈以修复编程任务中的语法错误,可以完全修复 31.69% 的提交并部分修正 6.39% 的提交。
Mar, 2016
对序列到序列方法进行的纠错实验中发现,基于字符的模型通常比基于单词的模型和通过卷积编码子单词信息的模型更有效,并且将输出数据建模为一系列差异可提高效果,而我们最强的序列到序列模型比最强的基于短语的统计机器翻译模型在数据相同的情况下得分提高了 6 M2 点(0.5 GLEU)。此外,在标准 CoNLL-2014 设置的数据环境中,我们证明了建模(并调整)差异可以使用更简单的模型和 / 或比以前的序列到序列方法少得多的数据获得类似或更好的 M2 得分。
Jul, 2017
通过使用语义修复的统计模型和神经网络,我们的研究成功地预测代码中的错误位置,并将其修复,从而提高了修复的准确性。
Oct, 2017
本文利用神经网络将程序编码成一个从预置条件空间到后置条件空间的线性映射,提出了一种利用这些线性映射作为特征的规模反馈算法,并将其应用于 Code.org Hour of Code 和 Stanford University 的 CS1 课程的编程测评中。
May, 2015
本文提出了一种利用拼写信息和全局上下文信息共同解决自然语言处理中拼写纠错问题的简单、有效方法,即通过改进预训练语言模型的微调,将拼写纠错看作一个序列标注任务,并在此基础上显著提升之前最先进结果 12.8% 的 F0.5 评分。
Nov, 2020
提出了一种基于程序执行轨迹学习的新型语义程序嵌入,相比于基于程序语法的嵌入,可以更准确地捕捉程序语义,并用于预测学生程序提交中的错误类型,并展示了通过该语义嵌入预测进行搜索的效率显著提高的结果。
Nov, 2017
本文提出了一种基于程序 -- 反馈图的图神经网络及一种用非监督学习方法构建大量程序修复样例的自监督学习范式。最终应用的 DrRepair 算法在两个应用领域上都取得了比之前的工作更好的修复效果。
May, 2020
针对初学者编程者在编程语言上的困惑,通过一种新颖的基于强化学习的编程语言纠错框架,利用专家演示以及自我探索等方式进行训练提升,使得其对有错误的程序进行更好的修复,相对于最先进的工具 DeepFix 在修复错误和更多的编译器错误信息上提高了 14% 和 29%
Jan, 2018
本文介绍了一种利用序列到序列学习和神经网络的方法来进行汉语拼写纠错,通过不断发现模型的弱点生成更有价值的训练实例并进行任务特定的预训练,逐步将生成的对抗性示例添加到训练集中的对抗性训练方法,可以提高多个 CSC 模型的泛化能力和鲁棒性,达到了 CSC 任务的最先进表现。
May, 2021