- CoIR:代码信息检索模型的综合基准
通过设计了
ame( extbf {Co} extbf {de} extbf {I} extbf {n} extbf {formation} extbf {R} extbf {etrieval} extbf {B} enchmark) - ACL理解用于检索增强图像字幕生成的检索鲁棒性
近期关于图像字幕检索增强模型的研究进展强调检索相关字幕对于具有强领域转移能力的高效轻量级模型的重要性。本文分析了 SmallCap 检索增强字幕模型的鲁棒性,发现该模型对出现在大多数检索字幕中的标记敏感,并可能将这些标记复制到最终字幕中。基 - 检索有益还是有害?对语言模型检索增强效果的深入研究
通过研究大型语言模型的自身限制以及外部信息检索的有效性,本研究构建了一个新的问答数据集 WiTQA,以探索实体和关系的组合对于信息检索和知识回忆方面的影响,从而提出了一个基于实体和关系频率的自适应检索系统。
- 无处不在的大型语言模型对动态对抗性问题生成的阻碍和加速
为了理解大型语言模型对敌对问题生成过程的影响,我们使用语言模型和检索模型丰富写作指导,提出新的衡量指标和激励机制,以提出好的、具有挑战性的问题,并展示了一个新的敌对问题数据集。
- Ada-Retrieval: 自适应多轮检索范式用于顺序推荐
本文提出 Ada-Retrieval,一种适应性多轮检索范式,用于推荐系统,通过迭代地改进用户表示以更好地捕捉完整物品空间中的潜在候选物,实验结果表明 Ada-Retrieval 显著提升了各种基础模型的性能。
- AAAI全员漂白:高效视觉检索的多教师蒸馏
通过多教师蒸馏框架 Whiten-MTD,该论文提出了将知识从预训练的检索模型转移到轻量级学生模型以实现高效的可视化检索,实验证明了该方法在检索性能和效率上的良好平衡。
- 生成查询和文档扩展何时失败?跨方法、检索器和数据集的综合研究
使用大型语言模型进行查询或文档扩展可以提高信息检索的泛化能力,但是否普遍有益或仅在特定环境下有效仍不清楚。本研究通过第一次全面分析基于语言模型的扩展,发现存在查找模型表现与扩展收益之间的强负相关性。我们的结果建议:对于较弱的模型或目标数据集 - 跨编码器在零样本检索中的防御
本文探讨了双编码器(Bi-encoders)和交叉编码器(Cross-encoders)在领域内外的广义能力,并发现了交叉编码器的参数数量和早期查询文档的交互对检索模型的泛化能力起到了重要作用。此外,在几项任务中,交叉编码器比相似规模的双编 - COLING目标导向的开放领域对话规划
本研究提出 Target-Guided Open-Domain Conversation Planning(TGCP)任务,通过对现有的检索模型和最近的强生成模型进行实验验证发现,当前技术面临的挑战是缺少神经会话代理人的目标导向的对话规划能 - WWW面向大规模检索的词库增强密集检索器 (LED)
本研究提出一种基于知识蒸馏的方法,将富有知识的词典嵌入模型对齐到密集检索模型中,从而在第一阶段检索中取得稳定且显著的提高。在三组公开数据集上的实验证明了该模型的有效性,并且与标准排名器蒸馏相结合可以进一步提高检索效果。
- 使用 Transformer 评估密集通道检索
本文提出了一个用于衡量基于 Transformers 的检索模型的统一框架,该框架基于最佳实践和先前研究中的规范,并使用 MSMARCO 数据集的 dev 集合和 trec_eval 脚本来计算模型的主要指标 MRR@100,通过该框架可以 - 学习稀疏表示中的荒诞权重和逐个查询评估得分的复仇
本文研究基于学习稀疏表示的检索模型,并探讨单次得分查询评估技术在其上的应用。通过实验比较文档逐一与单次得分方法,发现前者的平均查询延迟更低,但单次得分方法具有更可预测的查询延迟,本研究表明,如果能同时承受三个百分点的效率损失,则单次得分法可 - EMNLP将大规模生成模型的知识提炼为检索模型,用于高效的开放域对话
提出了一种新的训练方法,称为 G2R(Generative-to-Retrieval distillation),它通过将生成模型的知识注入检索模型中,从而保留检索模型的效率和大规模生成模型的会话能力,通过人工评估等广泛实验证明,使用 G2 - ACL用于多语言回复建议的数据集和基准线
该文介绍了 MRS,一个包含十种语言的多语言回复建议数据集,可用于比较选择模型和生成模型的优劣,并公开了基于此数据集的生成和检索模型。
- 利用跨架构知识蒸馏改进高效神经排序模型
该研究探讨了如何提高基于 BERT 和非 BERT 的不同命令匹配体系结构的目标性能,提出了一种跨体系结构教授的知识蒸馏过程,使用 Margin-MSE 损失相对输出分数进行适应,从而显著提高再排序效果。同时,研究发布了教师 - 分数培训文 - 可解释的产品搜索:基于动态关系嵌入模型
本文提出了一种基于解释性的检索模型,通过建立动态知识图谱,将 “搜索和购买” 行为建模为用户和产品之间的动态关系,并在潜在空间中基于用户和产品之间的关系进行排名,并通过逻辑推理和实体软匹配在知识图谱中生成解释信息,实验结果表明其优于现有的基 - 在奇幻文本冒险游戏中学习说话和行动
本文介绍了一个大规模的众包文字冒险游戏作为研究平台,用于研究基于场景的对话。在其中,代理可以感知,表情和行动,同时与其他代理进行对话。我们介绍了在这种情况下训练最先进的生成模型和检索模型的结果。我们展示了除了过去的对话,这些模型还能够有效地 - WSDM权重学习:一种针对广告检索的代价敏感方法
本文研究基于点击数据的检索模型,探讨在训练集中引入或忽略长尾查询 - 文档对的影响,提出了一种基于加权的策略用于学习长尾语义表示,并在必应赞助搜索和亚马逊产品推荐上进行实验。在线 A/B 测试结果显示,相比于不加权模型,点击率提高了 11. - 基于本地模型无关可解释性的可解释搜索
本论文介绍了一种搜索系统 EXS,利用解释模型 LIME,针对神经排序器等复杂模型进行解释,以提供搜索查询意图、文档排名和相关性的解释和改进建议。
- 检索与精炼:用于对话的改进序列生成模型
本研究发展了一种融合了两种不同方法的模型,能够检索出机器人回答,并将其作为附加语境进行精细调节,从而产生了更准确、更生动、更吸引人的回答。在最近的 CONVAI2 挑战评估中,该模型在人类评估中明显优于传统的检索和生成模型。