正反向解码用于正则化端到端 TTS
提出了一种基于 Kullback-Leibler 散度规则的神经机器翻译(NMT)正则化方法,并采用联合训练策略,将左到右和右到左 NMT 解码器改进互动方式,从而有效提高了中英文和英德翻译任务的表现。
Aug, 2018
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
本文提出了一种使用生成对抗网络和 Professor Forcing 概念训练的自回归模型,旨在减轻 TTS 中遭遇的曝光偏差问题,AB 测试结果表明该方法相较于传递学习得到了显著的 CMOS 0.1 的改进,语音测试集表现也有大幅度提升。
Apr, 2019
提出了一种同步双向序列生成模型,利用双向注意力网络实现从两个方向同时预测输出,解决了自回归解码方式生成长句时效率低,以及和未来内容关联性不足等问题,在神经机器翻译(英德、中英和英罗)以及文本摘要任务上,相比于自回归 Transformer,提高了生成质量且显著提升了解码速度。
Jun, 2019
本文通过对传统 encoder-decoder 和 decoder-only language model 结构的对比分析,揭示了 decoder-only language model 存在的注意力退化问题,并提出了 partial attention language model 来解决这一问题。
Apr, 2023
介绍了一种使用自我知识蒸馏和双向解码的神经机器翻译模型,使用这种方法可以鼓励自回归 NMT 模型提前规划,实验表明该方法在多个机器翻译数据集上比强 Transformer 基线方法显著优秀。
Mar, 2022
本文提出了一种基于教师 - 学生训练方案的 Tacotron 文本转语音系统解决自回归模型中的曝光偏差问题,并使用知识蒸馏使学生模型学习教师模型的输出概率,取得了在中英文系统中对于域外测试数据语音质量的稳定提升。
Nov, 2019