学习模拟编辑过程
提出一种适用于结构化数据的增量编辑模型,以树状结构数据为例,采用编辑编码器和模仿学习方法,实现树的连续渐进式变换,与采用单次直接生成的编辑方法相比,明显提高精度和健壮性。
Jan, 2021
提出了一个框架以训练非自回归序列到序列模型进行编辑任务,在此过程中,原始输入序列被迭代地编辑以生成输出。通过两种策略解决了在机器翻译训练的模仿学习算法在编辑场景下导致的训练和推断之间不匹配问题,从而显著提高了英文编辑任务上的输出质量和输出复杂度。
Mar, 2022
提出了遵循艺术工作流程的生成模型,能够进行多阶段图像生成和编辑,引入了一种基于学习的正则化优化过程以确保编辑后的图像与原始图像紧密一致,并通过三个不同艺术数据集的定量和定性实验验证了该框架在图像生成和编辑任务上的有效性。
Jul, 2020
本研究通过提出一种交互式文本生成设置,在其中用户通过向系统发出编辑现有文本的命令与系统进行交互,来解决神经文本生成中一次生成的局限性,并介绍了一种新的文本编辑任务。通过使用 Wikipedia 中的单句编辑构成了一个名为 WikiDocEdits 的数据集,使用基于 transformer 的模型在其中进行训练以提高其自动产生的成果和用户评估结果。在此基础上,本研究分别从经验和定性分析方面展示了该模型的性能表现。
Oct, 2020
本研究开发了多种神经网络模型,利用合成数据测试模型的编辑模式学习能力,从原型生成下一步的编辑行为。文章提出了一种新颖的 “注意力” 和 “指针” 网络的组合模型能够最大化地提高性能和可伸缩性,应用结果初步证明了开发可以习得预测未来编辑的工具的可行性。
Apr, 2019
通过检索训练样本并进行编辑来生成复杂输出的方法,特别是源代码生成,最近已经被广泛使用。本文提出了一种有效的方法,即使用基于任务的嵌入式检索模型,使生成器基于输入直接编辑生成输出,且在新的 GitHub Python 代码和 Hearthstone 卡牌基准模型上实现了改进效果。
Dec, 2018
本文研究分布式表征编辑的问题,并将神经编辑器与编辑编码器结合起来,可以学习表示编辑的重要信息,并用于将编辑应用于新输入。我们在自然语言和源代码编辑数据上进行实验,结果表明我们的神经网络模型学习捕捉了编辑的结构和语义。希望这个有趣的任务和数据源能够激发其他研究者进一步研究这一问题。
Oct, 2018
本研究在 Encoder-Decoder transformer 模型中提出了 4 种编辑任务,并展示了这种直接干预方法的高效性,只需一个有效实例就能修复错误的负面模型行为。
Nov, 2022
Seq2Edits 是一种基于开放词汇的序列编辑方法,适用于自然语言处理 (NLP) 任务,其中每个序列到序列转换表示为一系列编辑操作,用于替换源跨度或保持其不变。该方法在五个 NLP 任务上进行了评估,并在各个方面都取得了有竞争力的结果。其中在语法错误修正方面,与完整序列模型相比,该方法提高了推理速度达 5.2 倍,而推理时间取决于编辑数而不是目标标记数。
Sep, 2020