NAVER LABS Europe 的多语种语音翻译系统对 IWSLT 2023 低资源轨道的支持
本文介绍了 ON-TRAC 联盟为 2022 年 IWSLT 评测的两个挑战领域(低资源和方言演讲翻译)开发的翻译系统,该系统包括利用传递学习的管道方法和基于 wav2vec 2.0 模型转换的语音转换模型等。
May, 2022
本文介绍了一种针对具有口音的输入语音和术语密集的内容进行科学会议演讲翻译的语音翻译系统,使用了 kNN-MT 方法进行有效适应,该系统远优于其端对端对应物。
Jun, 2023
该论文介绍了 Volctrans 团队在 IWSLT 2021 中提交的系统,包括离线语音翻译和文本 - 文本同时翻译。他们采用端到端模型进行离线语音翻译,在 MuST-C 测试集上比基准结果提高了 8.1 BLEU 分值,并接近强级联解决方案的结果。针对文本 - 文本同时翻译,他们探索了最优的 wait-k 模型实践,并且在相同的延迟范围内超过了基准结果约 7 BLEU 分值。他们已发布代码和模型以促进未来的研究工作和工业应用。
May, 2021
本文提出了改进低资源语音转文本翻译性能的技术和发现,实验结果显示多语言自动语音识别系统在低资源场景下作为良好的初始化,CTC 作为额外的目标有助于重新排序内部表示并提高最终翻译。通过实验,确定了对改进低资源设置最有贡献的各种因素(初始化、目标和超参数)。在只有 300 小时的预训练数据下,模型在 Tamasheq - French 数据中取得了 7.3 的 BLEU 分数,比 IWSLT 2022 的先前发表作品高 1.6 个百分点。
May, 2023
本文介绍了我们在 WMT19 机器翻译鲁棒性任务中提交的系统,该任务旨在提高机器翻译对社交媒体中的噪声(如非正式语言和拼写错误)的稳健性。我们针对法语 - 英语和日语 - 英语两种翻译方向,提出了单一和集成系统,集成模型在所有语种中都排名第一。我们讨论了我们所做的预处理选择,并提出了我们对噪声和领域适应性鲁棒性的解决方案。
Jul, 2019
描述了悉尼大学&JD 在 IWSLT 2021 低资源语音翻译任务中的联合提交。我们参加了斯瓦希里语 - 英语方向,并在所有参与者中获得了最佳的分数,使用基于管道框架的 ASR 和 NMT。我们采用了多种技术方法,包括基于知识蒸馏的后向转换、多特征重排和传导调整。在模型结构方面,我们分别尝试了自回归模型和非自回归模型,还提出了两种新颖的预训练方法,即去噪训练和双向训练,取得了 SOTA 的性能。
Jul, 2021
本报告介绍了我们的 VolcTrans 系统,它是一个基于 Transformer 的多语言模型,使用从多个来源收集的数据进行训练,包括来自数据轨道的公共训练集,由 Meta AI 提供的 NLLB 数据,自收集的平行语料库和来自反向翻译的伪双语文本。在官方测试集上,我们的系统实现了 17.3 BLEU,21.9 spBLEU,和 41.9 chrF2 ++,平均所有语言对的推理速度为每秒 11.5 句,使用单个 Nvidia Tesla V100 GPU。
Oct, 2022
本论文讨论了 USTC-NEL 系统在 2018 年 IWSLT 评估的语音翻译任务中的应用,使用了传统的管道系统,包含三个模块:语音识别、后处理和机器翻译。我们训练了一组混合 - HMM 模型进行语音识别,并使用语音识别输出风格的文本作为输入来训练基于 transformer 的神经机器翻译模型。在 IWSLT 2018 任务上的实验表明,相较于 KIT 的基线系统,我们的系统实现了 14.9 的 BLEU 改善。
Dec, 2018
本文介绍腾讯 AI 实验室和上海交通大学共同参加的一场机器翻译比赛,在使用 M2M100 进行翻译的过程中,采用了交叉模型词嵌入对齐、逐步自适应策略、数据增强和微调等技术手段取得了优异成绩。
Oct, 2022
本文介绍了 CIC NLP 为 AmericasNLP 2023 的美洲土著语言机器翻译系统共享任务提交的三种方法,其中使用了 M2M-100、mBART50 和 Helsinki NLP Spanish-English 翻译模型,总体而言,mBART 设置能够在 11 种语言中的三种语言中改善基线。
May, 2023