基于模块化 Transformer 的排名框架
本文提出了一种新的长文档重新排序方法,通过利用自注意力机制和模块化 Transformer 框架建立查询到文档的交互模型,避免了编码过程中低维度表示带来的信息瓶颈,实现了从全部文档中提取重要信息的目的,并在 Robust04 和 ClueWeb09 等数据集上实现了有效的重新排序。
May, 2022
本文主要阐述了如何将 transformers 和 self-supervised pretraining 技术应用于文本排名问题,组成了两个高级别的现代技术,即在多阶段架构中进行 reranking 的 transformer 模型和直接进行排名的密集检索技术,并对处理长文档和处理效率和效果之间的平衡这两个主题进行了分析,同时也展望了研究的未来方向。
Oct, 2020
本文提出了 Modular Transformers 框架,用于灵活的序列到序列模型压缩,通过模块化编码器 - 解码器并进行知识蒸馏,可以实现灵活的压缩比率从 1.1x 到 6x,并且在保持相对性能不变的情况下,可以根据需要灵活组装模块化层。
Jun, 2023
PreTTR 算法广泛应用在各种排名任务中的预训练 transformer 网络,能够消除实践中计算昂贵的限制,提高实时排名的速度,通过训练压缩层来匹配注意力分数,可以有效地减少存储需求,而排名性能不会受到重大影响。
Apr, 2020
本篇研究提出了在两种不同类型的 ranker 模型上扩展句子转换蒸馏过程的两种方法,包括生成最优尺寸的词汇表和在蒸馏之前对教师的嵌入维数进行降维。结果表明,采用这些扩展技术的学生模型具有极大的压缩程度,而且在测试数据集上表现出高度的有效性和能用性。
Jun, 2022
在这篇论文中,我们探索了一种低资源替代方法,即基于词嵌入的文档检索模型,发现它在与信息检索任务上经过微调的大型 Transformer 模型相比具有竞争力。我们的结果表明,将 TF-IDF(传统的关键词匹配方法)与浅层嵌入模型简单组合,提供了一种低成本的方法,使其在 3 个数据集上与复杂的神经排序模型的性能相媲美。此外,添加 TF-IDF 度量改进了这些任务上大规模微调模型的性能。
Aug, 2023
本文提出了一种基于 fine-tuning 的框架,将任何预先训练的文本 - 图像多模态模型转换为高效的检索模型,并通过 cooperative retrieve-and-rerank 方法结合双网络和交叉编码器,实现更准确、更高效的跨模态检索。
Mar, 2021
本研究分析了基于 BERT 的交叉编码器与传统 BM25 排名在段落检索任务中的效果,发现它们在相关性概念上存在重要的差异,旨在鼓励未来改进研究。
Apr, 2022
本研究提出了一种基于 Deep Taylor Decomposition 原则的计算 Transformer 网络相关性的方法,通过注意力层和跳跃连接进行传播,并通过基于图像分类和文本分类问题的测试表明其在解释性方面优于现有方法。
Dec, 2020