用于多语言 ASR 的参数高效语言扩展框架
参数高效微调方法在适应多样化任务的大规模预训练语言模型中变得越来越重要,通过在资源有限的语言机器翻译中提高翻译准确性来实现适应性和计算效率的平衡。通过使用 SacréBLEU 评分,我们进行了具备不同资源和域的全面实证实验,评估了共计 15 种架构的 8 种参数高效微调方法的性能。结果表明,6 种参数高效微调架构在域内和域外测试中均超过了基准线,其中 Houlsby+Inversion 适配器表现最佳,验证了参数高效微调方法的有效性。
Apr, 2024
提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过 LoRA、BitFit 和 IA3 等技术,在几乎不需要可训练参数和 GPU 内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常需要进行架构修改或完全微调。为了解决这个问题,我们提出了 Context-PEFT,它根据令牌的领域学习不同的适配器参数组,这种方法使得可以实现类似 LoRA 的权重注入,而不需要额外的架构修改。我们的方法在 COCO 字幕任务上进行评估,在类似的数据限制下,优于完全微调,并同时提供了更高的参数效率和计算经济性的解决方案。
Dec, 2023
研究 Continual Multilingual Learning 的问题,提出使用 parameter-efficient finetuning 更新 multilingual model 来减少语言特异性的遗忘,同时提高跨语言转移能力,通过 LAFT-URIEL pipeline 来改善支持语言的性能
Sep, 2022
本文采用参数效率学习(PEL)技术,基于最优传输(OT)理论,引入无监督损失来最大化源域和目标域之间的差异,建立一个资源高效的低资源口音自适应文本到语音(TTS)模型,提高 Mandarin 口音自适应的自然度和性能的实验结果证明了该方法的竞争性。
May, 2023
通过元素级算术操作组合语言和任务的参数,我们提出了一种改进的零样本跨语言迁移方法,能在使用最少 PEFT 模块训练的情况下实现一致的收益,对摘要生成任务表现出良好的效果。
Nov, 2023
使用神经模型重编程的参数高效学习框架,可在跨语音识别中重新利用训练良好的英文自动语音识别模型,实现大规模预训练 ASR 成功,提高了训练效率。
Jan, 2023
通过将知识图嵌入到大型语言模型中,我们提出了一种名为 KnowLA 的知识适应方法,该方法通过在语言模型中插入适应层,将文本中出现的实体的嵌入融入到语言模型中,并与 LoRA 一起进行训练。实验结果表明 KnowLA 的有效性和鲁棒性,能够在不改变语言模型参数或输入提示的情况下,激活语言模型中的相关参数化知识以回答问题。
Mar, 2024
该研究论文从参数高效微调(PEFT)对大语言模型(LLMs)的迫切需求出发,强调了当前状态和进一步研究该主题的必要性,以及需要解决的重要挑战和开放问题,包括创新 PEFT 架构、不同学习设置的 PEFT、结合模型压缩技术的 PEFT 以及多模态 LLMs 的 PEFT 探索。通过提出该立场论文,我们旨在激发进一步的研究,并促进围绕 LLMs 的更高效和可访问的 PEFT 的讨论。
Nov, 2023
通过使用贝叶斯学习技术和 Laplace 逼近,我们展示了在更通用的参数高效微调(PEFT)框架中如何解决灾难性遗忘问题,并比较了使用对角和克罗内克逼近的方法在预训练知识保留上的性能差异。
Feb, 2024
在多种语言环境中,为了有效地合成语音,开发一个能够应对不同语言的语音合成模型是具有挑战性的。本文提出了一种在多语言语音合成中,将参数高效的迁移学习方法(如适配器和超网络)与 TTS 架构集成的方法,并在实验中证明这种方法在性能上能够与全面微调方法相媲美甚至更好,参数数量仅为总参数的约 2.5%。
Jun, 2024