利用语音识别能力激发大型语言模型
通过对大型语言模型和语音基础编码器进行多种组合的基准测试和研究,本文提出了一种简单而高效的 SLAM-ASR 系统,该系统在 Librispeech 基准测试中表现出色,并且超过了最新的音频通用模型。同时,本文还探讨了基于 LLM 的 ASR 的能力发展和模态对齐的问题。
Feb, 2024
利用大型语言模型的处理和推理能力,我们引入了一个语音摘要的框架。该框架结合了经过调整的指令型语言模型和将语音转换为令牌表示的音频编码器,以使语言模型能够解释语音输入,并可根据输入模态产生一致的响应。与先前的方法不同,我们的方法能摘要任意领域的口述内容,并通过变化语言模型提示策略产生不同风格的摘要,实验证明我们的方法优于基于语音识别和语言模型的级联基线模型。
Jun, 2024
本文提出了一个综合解决方案,包括更加细致的微调方案、匹配损失用于增强模态对齐、以及训练和推理方法来减少插入错误,实验证明部分微调语音编码器和语言模型,以及使用诸如 LoRA 的参数高效方法是最具成本效益的方法,匹配损失能够提升模态对齐,而所提出的训练和推理方法则显著减少了插入错误。
Jun, 2024
本文旨在探讨将大型语言模型(LLMs)集成到自动语音识别(ASR)系统中以提高转录准确性的潜力,并通过实验表明在当前阶段,使用 LLMs 的上下文学习能力来修正语音识别转录中的潜在错误仍然是一项具有挑战性的任务。
Jul, 2023
通过引入一种新方法,结合大型语言模型(LLMs)来进行上下文化的语音识别模型,我们证明通过添加适配器的少量可训练参数,可以在保持相同的文本输入功能的同时,实现预训练 LLM 的上下文化语音识别能力并显著提高性能。
Sep, 2023
本文综合实证研究了如何增强大型语言模型(LLMs)的语音合成能力,比较了三种 LLMs 和语音合成模型(VALL-E)的集成方法,结果显示利用 LLMs 作为文本编码器的耦合方法取得了最佳性能,比原始语音合成模型在讲话者相似度和词错误率(WER)方面表现更好。
Dec, 2023
本文介绍了两种使用 LLaMA 的零样本 ASR 领域适应方法,这两种方法可以通过一个领域特定的文本提示有效地减少跨领域 TedLium-2 和 SPGISpeech 数据集上的词错误率(WER),特别是,深度 LLM-fusion 具有更好的实体召回和词汇外单词的召回优势。
Jun, 2023
基于大型语言模型的自动语音识别研究,探索了多种配置下的语音编码器、语言模型和投影模块对 ASR 性能的影响,采用三阶段训练方法实现了在中文数据集上的最佳表现,为未来 LLM 基于 ASR 系统的研究提供了实证基础和性能优化的见解。
May, 2024
该论文通过比较研究了三种常用的连接结构,包括全连接层、多头交叉注意力和 Q-Former,并对 Whisper 系列的语音编码器和 Vicuna 系列的大语言模型进行了实验,结果表明基于 Q-Former 的大语言模型相比其他连接结构在 LibriSpeech、Common Voice 和 GigaSpeech 数据集上均取得了一致且显著的词错误率降低。此外,提出了一种新颖的片段级 Q-Former,使大语言模型能够识别超过编码器限制的持续时间的语音片段,在 90 秒长的语音数据上相比其他连接结构取得了 17% 的词错误率降低。
Sep, 2023