基于句间注意力机制改进基于 Transformer 的对话语音识别
本文提出了一种基于 Transformer 的块处理方法来解决整个输入序列必须用于计算自注意力的问题,并结合 MoChA 算法实现了在线自动语音识别系统,实验结果表明,相较于传统的块处理方法,该方法在 WSJ 和 AISHELL-1 数据集上表现更加优异。
Oct, 2019
通过使用自我注意力来模拟时间上下文信息,基于编码器 - 解码器的序列到序列模型已经在端到端自动语音识别领域取得了最先进的成果。本研究提出了一种基于 Transformer 的流式 ASR 系统,其可以在每个发音单词之后快速生成输出,因此可以应用于更广泛的 ASR 场景中。我们采用了一种时间限制的自注意力机制来实现流式语音序列的建模,同时通过触发式关注机制来优化编码器 - 解码器的关注机制。在 LibriSpeech 的测试数据上,我们的方案分别达到了 2.8% 和 7.2% 的词错误率,这是我们所知道的这个任务的最好的流式端到端 ASR 成果。
Jan, 2020
本文介绍了一种基于块处理的 Transform self-attention 网络用于语音识别的新方法,通过引入上下文 - aware 继承机制和一种新的掩码技术,有效地编码本地和全局信息,实验结果表明,该方法显著优于朴素块处理方法。
Oct, 2019
本文提出了一种自我注意力归因方法,通过对 BERT 等模型进行广泛的研究,发现这种方法能够用于识别重要的注意力头,构建注意力树,揭示变压器内的分层交互,以及可用作敌对模式实现非定向攻击。
Apr, 2020
本文研究了一种基于 Peng et al. (2021) 的线性注意力模型,并通过句子门促进最近归纳偏置,以提高文档级机器翻译的效能和翻译质量,并在 IWSLT 2015 和 OpenSubtitles 2018 上进行了评估和测试,结果表明该模型在长序列的解码速度方面有大幅提高,且翻译得分相似或更高,并展示了句子门进一步提高了 IWSLT 上的翻译质量。
Oct, 2022
通过引入跨模态对话表示,结合预训练的语音和文本模型,扩展 Conformer 编码器 - 解码器模型,我们的方法能够提取更丰富的历史语音上下文,实现较标准 Conformer 模型相对准确度提升 8.8%(HKUST)和 23%(MagicData-RAMC)的结果。
Oct, 2023
本研究采用 Transformer 结构,构建端到端的序列到序列模型,其表现超过了之前的端到端模型和传统混合系统,并且在 Switchboard 基准测试中超出了所有之前的端到端 ASR 方法。
Apr, 2019
本文提出了用卷积学习输入表示替换变形器的正弦位置嵌入,并阐述其在提供长程关系方面的优势和优化特点,最终实现了在无额外语言模型文本下,librispeech 测试中 4.7%和 12.9%的字错率。
Apr, 2019
本篇论文介绍了一个基于 Transformer 架构的音频视觉自动语音识别(AV-ASR)系统,特别关注视觉信息提供的场景背景,以支撑 ASR。我们从变换器的编码器层中提取音频特征的表示,并使用附加的跨模态多头注意层融合视频特征。此外,我们还采用多任务培训标准用于多分辨率 ASR,同时训练模型生成字符和子词级转录。实验结果表明,多分辨率训练可以加速收敛速度约 50%,并且相对于子词预测模型,单词错误率(WER)性能提高了高达 18%。此外,融合视觉信息可以改善表现,在仅使用音频模型的基础上,相对增益高达 3.76%。我们的结果可与最先进的 Listen, Attend and Spell 架构相媲美。
Apr, 2020
通过使用基于自注意力机制的 Transformer 模型,比较了基于音节和音素的汉语语音识别模型,结果表明音节模型在 HKUST 语料库上表现优异。
Apr, 2018