基于本地模型无关可解释性的可解释搜索
本文研究表明:在输出答案之前,引导大型语言模型生成解释是提高推理任务性能的有效策略;本研究还发现神经排名器也受益于解释。我们使用像 GPT-3.5 这样的大型语言模型对检索数据集进行增强,并训练一个序列到序列的排名模型,输出给定查询 - 文档对的相关性标签和解释。我们的模型,ExaRanker,在少量带有合成解释的示例上微调,性能与在 3 倍更多没有解释的示例上微调的模型相当。此外,ExaRanker 模型在排名过程中不产生额外的计算成本,可以按需请求解释。
Jan, 2023
本文全面调研了针对词嵌入、序列建模、注意力模块、Transformer、BERT 以及文档排名的机器学习和自然语言处理研究的可解释性和解释性方法,最后提出了未来的研究方向。
Dec, 2022
ExaRanker-Open 使用开源语言模型产生解释,通过数据增强方法不断加强神经排序器,在不同的数据集大小下持续提升信息检索模型的效果,并在研究中以 nDCG@10 点优于目标基准 0.6 点。
Feb, 2024
本文提供了三个基准数据集 (EXtra) 进行评估,使用排名导向的度量来衡量可解释性。 为了解决数据集构建中遇到的难题,提供了从用户评论中识别相似句子的解决方法和基于局部敏感哈希的子线性时间近似检测方法,可供社区的研究者共同研究。
Feb, 2021
本文研究了如何在后期操作中用可解释的特征空间解释排名模型,并使用来自排名器的标签来训练树状模型,以提供解释,研究表明在某些情况下,可以学习到忠实且可解释的排名器。
Jun, 2018
ExES 是一个用于解释可解释人工智能(XAI)领域的专家搜索和团队形成系统的工具,使用事实和反事实的方法来提供透明度,对重要技能和合作关系进行解释,并指出新的技能和合作关系以增加被识别为专家的可能性,并通过一套修剪策略加速解释搜索以实现交互式的实用部署。
May, 2024
该研究通过一个众包实验,探讨解释机器学习模型的预测对人类是否具有帮助,并发现在给定特征系数的情况下,人们能够更有效地对线性词袋模型进行操纵,但解释对 BERT 型分类器并没有显著提高操纵能力,而通过伪造 BERT 模型的线性模型的对全局归属的解释则可以有效地操作 BERT 型模型。
Dec, 2021
本文提出了一种基于解释性的检索模型,通过建立动态知识图谱,将 “搜索和购买” 行为建模为用户和产品之间的动态关系,并在潜在空间中基于用户和产品之间的关系进行排名,并通过逻辑推理和实体软匹配在知识图谱中生成解释信息,实验结果表明其优于现有的基线模型,同时能够合理地解释搜索结果。
Sep, 2019
提出了一种名为 XAI Test 的应用基准评估方法,旨在评估不同水平的信息提供对最终决策的影响,针对现实世界的欺诈检测任务进行了实验,并使用多种统计方法分析了三种热门解释器的影响。
Jan, 2021