高效非自回归解码器词汇检索指数
提出了一种基于 Transformer 的、有词汇感知的自动语音识别框架,可以同时训练语音和文本数据,并松弛条件独立性,实现更快的解码速度和较好的性能。实验结果表明,该模型比其他最近提出的非自回归 ASR 模型更具优越性,并且比大多数非自回归 ASR 模型更为简洁,解码速度是经典自回归模型的 58 倍。
May, 2023
提出使用预训练的 encoder-decoder 模型,通过 document to query generation 来进行重新排名,同时在推理时,将其分解为仅有 decoder 的语言模型以提高推理速度,实验结果表明该方法可以比传统的交叉注意模型快 6.8 倍,并且能取得相当的效果。
Apr, 2022
该论文研究了非自回归语言模型作为生成式检索的更高效的替代方法,并提出了 PIXAR,一种扩展目标词汇的新方法,通过包括多词实体和常见短语(高达 500 万个标记)来减少标记之间的依赖性,并通过推理优化策略在保持低推理延迟的同时实现了好于标准非自回归模型 31.0% 的相对改进 (MRR@10,MS MARCO 数据集)。
Jun, 2024
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
这篇论文旨在研究大型语言模型的文档检索能力。实验表明,通过提供少量上下文演示,大模型可以直接生成正确答案的网址,相比于目前的检索方法在开放领域问答中表现更佳。
May, 2023
本文研究介绍了一种基于神经网络领域的全端到端文档检索方法,通过采用特定的技术,包括查询生成、语义文档标识符和基于一致性的规则化,并引入前缀感知、权重适应解码器架构,NCI(神经语料库索引器)可以直接生成相关文档标识符以实现课题回忆的最佳表现。经实证研究,NCI 在两个常用的学术基准测试中,相对于最佳基线方法,在 NQ320k 数据集的 Recall@1 上实现了 + 21.4% 的相对增强,在 TriviaQA 数据集的 R-Precision 上实现了 + 16.8% 的相对增强。
Jun, 2022
提出了一种新颖的学习型后交互模型(LITE),通过解决轻量级评分器的手工设计和访问个体文档令牌嵌入的问题来改善查询 - 文档关联性在信息检索中的性能,并在领域内和零样本重排序任务上优于以前的后交互模型。
Jun, 2024
提出利用自回归模型生成和打分 n 元组,并通过高效的数据结构将其映射到完整段落的检索方案,相较于其他检索方案具有更好的性能表现和更小的内存占用。
Apr, 2022
本研究旨在提高非自回归模型的神经机器翻译的效率和性能,通过将语言的句法和语义结构以及目标句子中的中间潜在对齐纳入一个非自回归 Transformer 模型。实验证明,该模型在速度上显著提高,与现有的多个最先进的非自回归模型相比,在保持翻译质量的同时表现突出。
Jan, 2021
本研究发现,在编码器足够深的情况下,单层自回归解码器可以显著地优于拥有相似推理速度的强大非自回归模型,并认为自回归基准与非自回归方法之间的速度劣势在某些方面被高估,这些结果为未来研究快速且准确的机器翻译建立了新的协议。
Jun, 2020