- 面向多轮医学面试的端到端语音识别后解码器偏置
介绍了一种解决特定领域重要的罕见词汇与 E2E 模型优化中遇到的困难的方法,提出了后解码偏置的新方法,并通过实验证明其在识别罕见词汇方面的改进效果。
- 针对基于前缀树的上下文 ASR 的音素感知编码
在语音识别应用中,通过使用基于音素的编码将 Tree-constrained Pointer Generator (TCPGen) 扩展,可以更好地识别发音不寻常的词,我们的 ASR 实验结果表明,这种音素感知编码优于传统的字母编码。
- 通过音素特征和纯文本数据在流式传导语音变调中改进大规模深度偏差
通过深度偏置识别稀有单词或上下文实体可以提高 Transducer 的识别性能,这在实际应用中尤为重要,特别是对于流式自动语音识别(ASR)。然而,在深度偏置中采用大规模稀有单词仍然具有挑战性,因为当存在更多干扰者并且偏置列表中存在相似字母 - 连续输出神经机器翻译的随机目标嵌入的非凡有效性
连续输出神经机器翻译(CoNMT)通过嵌入预测替代了离散的下一个词预测问题;我们挑战了相关单词间语义结构(即相关单词的接近度)对此的重要性的假设,并展示了完全随机的输出嵌入能够优于经过艰苦预训练的嵌入,尤其在更大的数据集上,对于罕见词而言这 - ed-cec:基于错误检测和上下文感知错误修正的提升罕见词识别的后处理方式
通过错误检测和上下文感知的错误修正来改善对于罕见单词的识别,同时实现了具有较低词错误率的自动语音识别系统。
- 链式词典提示诱发大型语言模型翻译
本篇论文提出一种新方法名为 CoD,通过使用多语言词典来引出 LLMs 的翻译能力,从而提高大规模语言模型在多语言神经机器翻译中的表现,实验表明,CoD 可使得 ChatGPT 在 FLORES-200 全 devtest 集上英塞语察里洛 - 基于情境适配器和自适应增强的 CTC 语音识别模型个性化研究
该研究提出了一种新的语音识别模型,使用动态增强和电话对齐网络来优化编码器和解码器,在编码器中引入关注稀有单词和超出词汇表以及解码器中使用子词预测结果,结果表明 F1 可以达到 60%。
- RNN-Transducers 中的隐式语言模型自适应贴现
本文针对 RNN-T 在稀有词识别中的性能下降问题,提出了一种轻量级自适应 LM 折扣技术 AdaptLMD,通过在内部语言模型中动态选择性折扣,随机掩盖预测网络输出等方法,比较基准模型,相对于会话式的代码混合 Hindi - 英语 ASR - ACLDict-BERT: 使用词典增强语言模型预训练
本研究提出了一种基于字典定义增强语言模型预训练的方法,并在多个自然语言处理基准测试集上证明 Dict-BERT 模型能够显著提高对于生僻词的理解和各种下游任务的表现。
- ACLBERTRAM:优化单词嵌入对上下文模型性能具有巨大影响
本文提出了一种名为 BERTRAM 的基于 BERT 的结构,用于为罕见词建立高质量的嵌入表示,从而提高深层语言模型在罕见词和中频词上的表现。实验表明,在罕见词探查任务和三种下游任务上,与 BERT 相结合可以显著提高罕见词和中频词的表示。
- AAAI稀有词汇:上下文嵌入的主要问题及关注模拟的解决方案
本文讨论使用语言建模目标预训练深度神经网络架构对自然语言处理任务的大幅改进。在此基础上,利用 Attentive Mimicking 这一方法适应于深度语言模型的 embeddings。作者提出一个单词级别的近似的过程,使得即使基础语言模型 - ACL专注模仿:通过关注信息上下文获得更好的词嵌入
本文提出了一种注意力模仿算法,针对稀有词从表面形式和所有可用上下文信息中获取最具信息和可靠性的上下文信息来计算嵌入向量,评估结果表明,相较于之前的工作,该方法在提高中低频词的嵌入质量方面取得了更好的效果。
- ACL利用外部专家实现罕见词翻译的单次学习
提出一种通过使用指针网络和强化学习来控制模型 - 专家交互的通用方法,从而解决当前系统中翻译罕见单词的主要挑战,并通过使用基于短语的模型来模拟专家来补充神经机器翻译模型,以改善英语 - 西班牙语和德语 - 英语之间的翻译质量。
- ACL神经机器翻译中的词汇选择改进
本文提出两种方法解决神经机器翻译中罕见单词的误译问题,一为限制向量范数,避免高频词过度约束;二为引入词汇模块与其他模块联合训练得到更好的翻译结果。通过对 8 种语言对的数据进行测试,结果显示本文方法的 BLEU 分数提升了最高可达 +4.3 - 神经机器翻译的六大挑战
本研究探索了神经机器翻译领域中域不匹配、训练数据量、罕见词汇、长句子以及束搜索等 6 大挑战,并展示了相比于基于短语的统计机器翻译质量上的缺陷和改进。
- 在线学习计算词向量
本文提出一种从少量辅助数据中即时预测稀有词嵌入的方法,并在阅读理解、文本蕴含和语言建模等任务中,与仅在任务端训练的嵌入相比,展现了更好的结果。
- ACL低资源神经机器翻译的数据增强
本研究提出了一种以数据增强为基础的方法,针对低频词汇在合成的新语境中生成新的句子对,以提高神经机器翻译系统的翻译质量。在模拟低资源环境中的实验结果显示,相对于基准和回译方法,我们的方法能够提高翻译质量,最高可提高 2.9 BLEU 分数。
- 神经网络名称翻译提高神经机器翻译
本文旨在通过引入字符级的 Seqence-to-Sequence 模型来提高神经机器翻译(NMT)系统的翻译效果和识别实体名词的能力,并在双语训练中借助名称实体翻译模型来提高高质量的实体名词对齐,从而使中英翻译任务的 BLEU 分数比基础