关键词non-autoregressive transformer
搜索结果 - 8
- 使用单一非自回归变换器生成掩盖音频
我们介绍了 MAGNeT,一种遮蔽生成序列建模方法,直接操作多个音频令牌流。MAGNeT 由一个单阶段的非自回归变换器组成,在训练过程中,我们预测来自掩码调度器的遮蔽令牌跨度,而在推断过程中,我们逐步构建输出序列使用多个解码步骤。为了进一步 - 基于概率无上下文文法的非自回归机器翻译
Non-autoregressive Transformer (NAT) 通过引入 Probabilistic Context-Free Grammar (PCFG) 提升了神经机器翻译的表达能力,并缩小了 NAT 与 AT 模型之间的翻译 - 一种基于 CTC 对齐的非自回归变压器模型用于端到端自动语音识别
本论文介绍了一种 CTC Alignment-based Single-Step Non-Autoregressive Transformer(CASS-NAT)方法,用于自动语音识别,通过利用与 CTC 对齐的语音边界信息提取标记级别音频 - 非自回归神经机器翻译的选择性知识蒸馏
本文提出了一种选择性知识蒸馏技术,通过 NAT 评估器选择高质量且易于学习的 NAT 友好目标,并引入简单而有效的渐进式蒸馏方法来提高 NAT 性能,在多个 WMT 语言方向和多个代表性 NAT 模型上进行实验。结果表明,我们的方法可以实现 - ECCV显式图像标题编辑
本文介绍了一个新的任务:显式标题编辑,并提出了一种基于非自回归变压器的 ECE 模型 TIger。在两个 ECE 基准测试上的广泛实验表明 TIger 的有效性。
- ICML非自回归 Transformer 模型的学习
本文分析了非自回归 Transformer 的学习挑战,提出统一视角来理解存在的成功。研究表明,我们的视角可以解释 NAT 学习中的现象并指导新的训练方法的设计。
- ACL通过学习目标分类编码实现非自回归式翻译
本文提出了一种将 CNAT 学习的分类代码作为潜变量引入非自回归解码器的方法,从而解决其输入依赖性建模缺乏的限制,实现机器翻译任务中与多个强基线相比相当或更好的性能。
- ACL为非自回归神经机器翻译检索连续信息
本论文提出了两种增强 Non-Autoregressive Transformer (NAT) 翻译能力的方法:一种基于一种新的强化学习算法的序列级训练方法,叫做 Reinforce-NAT;还有一种名为 FS-decoder 的新型 Tr