将无监督预训练应用于语言理解,在语音和文本之间建立单一模型,包括 BERT 目标和 w2v-BERT 目标以及其他预训练技术改进,同时在 GLUE 任务中也取得了不俗的竞争力。
Oct, 2021
我们提出了一种联合语音与语言模型(SLM),它是一种多任务、多语种、双模态的模型,充分利用了预训练的语音和语言基础模型。SLM 通过将预训练的基础模型冻结,最大限度地保留它们的能力,并只训练一个只包含 1%(156M)基础模型参数的简单适配器,从而在传统任务(如语音识别和语音翻译)上取得了强大的性能,同时还具备了零 - shot 指导的新颖能力,能够完成包括上下文偏置语音识别、对话生成、语音延续和问答等多样化任务。我们的方法表明,预训练的语音和语言模型之间的表征差距可能比人们预期的要小,并可以通过简单的适应机制来弥合。因此,SLM 不仅训练高效,而且继承了不同模态基础模型已经具备的强大能力。
Sep, 2023
通过使用预训练的语音 - 文本模型,本研究发现只需 1 小时标注的语音数据,即可与仅使用 10 倍数据的仅语音预训练模型在口语理解任务(情感分析和命名实体识别)上取得可比较的性能;同时发现底层的语音 - 文本模型作为任务自主层面,在共享空间中对齐语音和文本表示,而顶层则更加任务特定。
Oct, 2023
提出了一种跨模态的语音和语言模型,使用两种不同的离散标记器来处理语音和文本模态,取得了优异的成绩,尤其表现出色的是在 CoVoST-2 语音翻译任务上。
Sep, 2022
利用跨语言语音翻译 (ST) 作为预训练任务可提高单语和多语意图分类,口语问答的性能,并探索模型的贝叶斯迁移学习和持续学习惯性。
May, 2023
本文介绍了一种跨模态预训练语言模型 ——Speech-Text BERT(ST-BERT),通过两种预训练任务(Cross-modal Masked Language Modeling and Cross-modal Conditioned Language Modeling)学习上下文跨模态对齐,对端到端的口语语言理解任务进行了解决,实验结果证明,该方法有效。同时,我们的方法通过使用特定于域的语音文本对数据进行域自适应预训练来提高 SLU 性能的表现。
Oct, 2020
通过 ComSL 模型的建立,我们将跨模态学习和迁移学习相结合,在多任务学习的框架下进行,有效地实现了端到端的语音转文本翻译任务。在 21 种语言的 CoVoST2 公共数据集的评估中,我们的方法在多语言语音到英文文本翻译任务中实现了新的最高 BLEU 评分平均值 31.5。
在跨语言场景中进行了语音表示学习的探索,提出了语音文本联合预训练框架,通过学习重构不同语言的输入来进行预训练,取得了在多语言场景下优于基于说话人嵌入的多说话人 TTS 方法的成果。
Nov, 2022
探索联合的语言建模方法,比较不同语音分词方法和语音 - 文本混合数据构建方法,通过自动指标评估联合语言模型的混合效果,在不同模态下对下游口语理解任务进行微调并测试其性能,结果表明通过混合我们提出的语音单元和文本的方法,联合语言模型在口语理解任务上超过了单独语音的基准模型,并显示出跨模态的零 - shot 传递能力。
本文描述了一种使用编码器 - 解码器建模框架来联合预训练语音和文本用于语音翻译和识别的方法,其中包括四个自监督和有监督的子任务以进行跨模态学习,其贡献在于将文本语料库中的语言信息整合到语音预训练中。
Apr, 2022