通过语言提示调整和帧级别语言适配器增强多语言语音识别
多语言模型中,通过参数高效微调和基于令牌的提示微调,令牌提示微调在所有语言上实现了与或更好的性能,对低资源语言的性能提升更为有效,这一现象与多语言模型的标记化方案有关。
Nov, 2023
基于多语言预训练模型,通过提示学习的跨语言转移已显示出有希望的有效性,其中在低资源情景中,从源语言到目标语言的软提示转移到下游任务中。为了有效地转移软提示,我们提出了一个新颖的框架 —— 多语言提示翻译器(MPT),通过引入多语言提示翻译器来适当处理嵌入在提示中的重要知识,同时保留任务知识。在 XNLI 的少样本设置中,MPT 表现出了比基线方法更突出的改进,当转移到与源语言相当不同的语言时,MPT 比普通提示更为突出。
Mar, 2024
本文介绍了一种名为 SpeechGen 的框架,使用 10M 个可训练参数,探索了提示调整方法来刺激语音语言模型进行各种生成任务,为更高效和有效地生成任务提供了前景。
Jun, 2023
本文提出了 “SpeechPrompt V2” 语音分类的编程框架,该框架在统一的下游任务生成和多个语言的情境下具有高效性并取得了优秀的性能。
Mar, 2023
本研究首次探讨了基于生成式口语语言模型 (GSLM) 的提示调整范式用于语音处理任务,实验结果表明,与下游精细调整模型相比,提示调整技术使用的可调参数更少,在语音分类任务中实现了较高性能。
Mar, 2022
通过引入自我条件 CTC 框架中的编码器提示技术,我们实现了 CTC 模型的语言特定适应,从而实现了多语言语音识别的端到端处理,并取得了平均错误率下降 28% 和低资源语言下降 41% 的显著效果。
Jun, 2024
该研究提出了一种多级提示调优方法来增强机器阅读理解,通过利用任务特定、领域特定和上下文相关的提示,提高了输入语义在不同层次上的理解能力。同时,引入了独立性约束来避免冗余,并利用上下文相关知识生成合适的提示。在各种问答格式的 12 个基准测试中进行了广泛实验,相比最先进的方法,平均改进率达到了 1.94%。
Oct, 2023
本研究研究了预训练多语言语言模型在零样本跨语言模型传递中的应用,使用 prompt-tuning 进行多语言 NLU 任务(包括句子分类、序列标注和问题解答)中的跨语言评估,并与传统的微调方法进行了比较。结果表明,prompt-tuning 在跨数据集跨语言传递方面比微调表现更好,而且只需调整 0.1% 到 0.3% 的参数。此外,分析表明,prompt tuning 可以在决策边界对齐更好的下游任务上具有更好的跨语言可传递性。
Oct, 2022
本文旨在为多语言学习提供潜在的架构改进,通过开发一种名为 Polyglot Prompting 的学习框架,利用提示方法为不同的语言和任务学习一个统一的语义空间进行多语言多任务基于提示的学习,以实现跨语言的互助和更全面的实验评估,开创了未来多语言研究的新方向。
Apr, 2022
本研究提出一个新的模型 Prompt-Adapter,将预训练的提示调整与高效自适应网络相结合,用于高效的视觉 - 语言模型适应过程,超过公共数据集中少量数据情况下的现有方法,在此基础上,探讨了多任务预训练初始化与 prompt tuning 相结合的思想。
Mar, 2023