UniEnc-CASSNAT:一种仅编码器非自回归式语音 SSL 模型的 ASR
本论文介绍了一种 CTC Alignment-based Single-Step Non-Autoregressive Transformer(CASS-NAT)方法,用于自动语音识别,通过利用与 CTC 对齐的语音边界信息提取标记级别音频嵌入来提高推理速度,实现了自监督学习,提出了多个训练策略来改善单词错误率(WER)表现,并探究了基于误差的对齐采样方法以减少训练和测试过程中的对齐不匹配,实验结果表明 CASS-NAT 对于多个 ASR 任务具有接近于 AT 的 WER,同时提供了~24 倍的推理加速,并且未经过语言模型的情况下,实现了新的最高效果。
Apr, 2023
提出了一种基于 Transformer 的、有词汇感知的自动语音识别框架,可以同时训练语音和文本数据,并松弛条件独立性,实现更快的解码速度和较好的性能。实验结果表明,该模型比其他最近提出的非自回归 ASR 模型更具优越性,并且比大多数非自回归 ASR 模型更为简洁,解码速度是经典自回归模型的 58 倍。
May, 2023
本文介绍了一种基于 CTC 的非自回归语音翻译模型,采用预测感知编码方法和跨层注意力方法解决了翻译任务中的条件独立生成和单调对齐等问题,加速比为 5.67 倍,BLEU 分数为 29.5,在 MuST-C ST 基准测试上优于自回归模型和之前的最佳结果。
May, 2023
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
本论文提出了两种增强 Non-Autoregressive Transformer (NAT) 翻译能力的方法:一种基于一种新的强化学习算法的序列级训练方法,叫做 Reinforce-NAT;还有一种名为 FS-decoder 的新型 Transformer 解码器,可以将目标顺序信息融合到解码器的顶层中。实验结果表明,Reinforce-NAT 在三个翻译任务上的表现优于基线模型 NAT,FS-decoder 的翻译性能与自回归 Transformer 相当,但速度更快。
Jun, 2019
本研究提出了一种全非自回归神经机器翻译(NAT)的方案,采用依赖关系减少等方法,缩短推理延迟同时提升翻译质量,在三个翻译基准测试中实现了新的全自然机器翻译模型的最高水平,并在推理时间上取得了大约 16.5 倍的速度提升。
Dec, 2020
本文提出了一种能够从两个角度增强神经机器翻译(Non-autoregressive translation)解码器内部的目标依存性的新方法,并在四个 WMT 翻译任务上进行试验。结果表明,该方法相较于其他神经机器翻译方法,能够将 BLEU 得分提高 1.88 分而且性能并不受影响。
Mar, 2022
我们提出了一种新颖的非自回归生成框架用于同时语音翻译 (NAST-S2X),它将语音到文本和语音到语音任务整合到统一的端到端框架中。实验结果表明,NAST-S2X 在语音到文本和语音到语音任务中优于现有模型,在不到 3 秒的延迟内实现了高质量的同时口译,并在离线生成中提供了 28 倍的解码加速。
Jun, 2024
本文提出了一种基于非自回归模型 (NAR) 的高效端到端语音翻译 (E2E-ST) 系统 ——Orthros,使用条件掩蔽语言模型 (CMLM) 和连接主义时间分类 (CTC) 模型作为 NAR 解码器,并采用两种训练方法来增强 CMLM 解码器。实验表明,在三个基准数据集及六个语言方向上,Orthros-CTC 以 Conformer 编码器为基础的模型在保证翻译质量的前提下,将解码速度提高了 3.63 倍。
Sep, 2021