后缀检索增强语言建模
我们将先前开发的 SLM 模型应用于语音对话应用中,其中对话状态直接从音频信号中推断,通过检索增强的 SLM(ReSLM)改善了识别领域特定实体的困难,提升了模型性能,特别在对话状态跟踪和具有偏置能力的语音自动识别方面具有广泛适用性。
Feb, 2024
使用检索增强语言模型 (Retrieval-augmented language models, RALMs) 在处理特定应用场景问题时,检索到的信息能够提高模型的性能,并且不会损害性能。该研究分析了五个开放领域问答基准,并提出了两种方法以减轻性能下降问题。
Oct, 2023
本文提出了一种新型非自回归对话系统核心部件 ——Layered-Refine Transformer,其包含 Slot Label Generation 和 Layered Refine Mechanism,通过在训练期间有效获取依赖信息,实现了在推断时显著提高了 SLU 性能(总体准确率提高 1.5% 以上)并加速了(超过 10 倍)推断过程。
Aug, 2021
该论文提出了一种名为 In-Context RALM 的新方法,将基础语料库中的相关文档作为输入前缀添加到语言模型中,实现对外部信息的整合而无需改变模型结构,并证实其在各种场景下的性能提升,从而增加了语言模型的普适性。
Jan, 2023
该研究提出了一种新的内存增强的查找字典的 Transformer 语言模型,并证明了它在长尾预测问题上的有效性,提高了自动语音识别解码效率,特别是对于长尾词的识别表现更佳。
Dec, 2022
本文中,我们提出了一种用于从头开始联合训练检索增强语言模型的架构和训练流程,名为 Retrieval-Pretrained Transformer(RPT),并使用四个长程语言建模任务进行了评估,横跨图书、代码和数学写作,证明了与强基线相比,RPT 改善了整体的检索质量和困惑度。
Jun, 2023
利用 “理想检索” 方法研究检索增强语言模型,评估检索增强对语言模型行为的影响,观察到这些模型在权重保存方面具有更少的世界知识,在理解局部上下文和词间依赖方面表现更好,但在理解全局上下文方面表现更差。
Apr, 2024
该研究考察了语言模型在处理文本时是否能够检索先前出现的确切单词,并发现 transformers 模型可以从第一次出现的名词清单中提取词语的身份和排序,而 LSTM 模型则更加侧重于先前单词的语义要点,以及其与列表中其他单词的关系。
Oct, 2022
利用 REALM 框架进行适应性评估,开发了第一个挪威基于检索的语言模型,证明了检索增强语言建模可提高读者在摘要问答上的表现,并表明这种类型的训练不会以其他功能为代价。
Apr, 2023
该研究论文介绍了一种基于模型无关的文档级嵌入框架,通过大型语言模型(LLM)增强,改进了检索模型训练过程中的一些重要组件,如负采样、损失函数等。通过实现这个 LLM 增强的检索框架,我们显著提高了广泛使用的检索模型(如 Bi-encoders 和 late-interaction models)的效果,并在 LoTTE 数据集和 BEIR 数据集上取得了最新的研究成果。
Apr, 2024