SPLADE 模型效率研究
本文通过对 SPLADE 模型的改进,在效率和效果上都有了提升,其中包括修改 pooling 机制、基于文档扩展的模型、引入蒸馏训练,最终取得了在 BEIR 测试上最新的最优结果。
Sep, 2021
SPLADE-v3 的最新版本引入了训练结构的变化,并呈现了一系列最新的模型。通过对超过 40 个查询集的元分析,与 BM25、SPLADE++ 以及重排序模型进行比较,展示了其有效性。 SPLADE-v3 进一步推动了 SPLADE 模型的极限:在 MS MARCO 开发集上获得超过 40 的 MRR@10,将 BEIR 基准测试的领域外结果提高了 2%。
Mar, 2024
本文介绍了基于显式稀疏正则化和对术语权重的对数饱和效应的首位排序器,具有高度稀疏的表示,与最先进的密集和稀疏方法相比取得了有竞争力的结果,并探讨了效率和效果之间的平衡。
Jul, 2021
本文提出了一种使用预训练语言模型的信息检索模型 SPLADE,介绍了它在处理实际场景中的鲁棒性及其存在的问题,最后提出了一种无监督领域自适应方法,通过补充语料库中的低频词汇并使用逆文档频率权重来提高检索性能。实验结果表明,该方法在具有大量词汇差距的数据集上优于当前最先进的领域自适应方法,并与 BM25 相结合取得了最新的性能结果。
Nov, 2022
该文章调查了预训练语言模型的压缩和加速方法,重点关注了模型在 NLP 领域推理阶段的表现,并提出为 NLP 的整个生命周期(包括数据准备、模型训练和推理)综合考虑计算、时间和碳排放的高效 NLP 研究。
Feb, 2022
提出了一种用于 PLM 的协作优化算法,该算法集成了静态模型压缩和动态推理加速,通过在宽度上将 PLM 变得苗条同时保持深度,同时补充逐层早期退出以动态加速推理。
Oct, 2022
使用稀疏性加速预训练大型语言模型 (LLMs) 的训练过程,通过观察前向迭代中被激活的神经元的稀疏性,排除不活跃的神经元以提高计算速度,这一方法在实践中实现了与标准训练相媲美甚至更好的性能,持续预训练中吞吐量提升了 45%,在监督微调中节省了 38% 的训练时间,提供了一个简单、硬件无关且易于部署的额外 LLM 训练框架。
Jun, 2024
本研究通过引入性能优化的虚拟中心点交互机制,构建一个名为 PLAID 的优化 late interaction 模型引擎,极大地加速 late interaction 搜索延迟,同时保持准确度。通过在 GPU 和 CPU 上的测试表明,该引擎在大规模情况下甚至可以实现毫秒级的搜索延迟。
May, 2022
研究了适配器在信息检索领域中的应用,指出适配器 - SPLADE 可以优化只有 2%的训练参数,比全微调模型和现有的参数高效密集 IR 模型表现更佳,并探讨了适配器在跨领域 BEIR 数据集和 TripClick 上的领域自适应,以及 正确性的知识共享,从而完善了适配器在神经 IR 中的研究。
Mar, 2023
SPRINT 是一个基于 Pyserini 和 Lucene 的统一 Python 工具包,支持评估神经稀疏检索。通过在 BEIR 上建立强大且可复现的零样本稀疏检索基线,我们的结果表明 SPLADEv2 在所有神经稀疏检索器中取得了最佳的平均 0.470 nDCG@10 分数。
Jul, 2023