一个大规模的搜索数据集,用于无偏见的学习排序
通过对百度搜索引擎的实时数据集开展实证研究,发现无偏学习排序技术在点击预测方面有明显的性能提升,但这并不转化为在专家相关性标注中的排名性能改进,表明结论在很大程度上取决于基准评估方法。
Apr, 2024
本教程介绍了无偏学习排序(ULTR)领域的核心概念和最新发展,包括其方法的若干应用以及在排序公平性方面的相关连接,旨在为对开发新的 ULTR 解决方案或在实际应用中利用 ULTR 方法感兴趣的研究人员和产业从业者提供帮助。
May, 2023
本文通过对无偏学习进行形式化的定义,指出现有的离线无偏学习和在线排序学习算法只是同一问题的两个方面。研究人员进一步对 6 种现有的无偏学习算法进行了评估,并发现其中大部分算法都可以在离线和在线环境下使用,而且有一定的应用前景。
Apr, 2020
本文提供一个超过 10 万个问题的中文偏见基准数据集,包括与中国文化和价值观相关的 14 个社会维度中的刻板印象和社会偏见,通过广泛文献综述、生成环境、AI 辅助去歧义生成、手动审核和重组等步骤,展示了数据集的广泛覆盖和高多样性,实验表明所有 10 个公开可用的中文大型语言模型在某些类别中存在强烈的偏见。
Jun, 2023
本文描述了一种使用最新的中文预训练语言模型 ERNIE 开发和部署检索系统的方法,并通过离线和在线实验表明该系统性能良好,特别是对于那些查询需求不常见的查询,该检索系统可以大大提高搜索引擎的易用性和适用性。
Jun, 2021
该研究报告介绍了一个面向中文语料库的大规模高质量跨模态基准(ZERO),该基准包含了最大的公共预训练数据集 ZERO-Corpus 和用于下游任务的五个人工注释微调数据集,并且提出了一个基于预排序和排序机制的 VLP 框架(R2D2),该框架采用目标导向蒸馏和特征导向蒸馏技术,用于实现大规模跨模态学习,并在图像 - 文本检索、文本 - 图像匹配、图像字幕生成、文本到图像生成和零样本图像分类等五个范畴的任务上实现了最先进的表现。
May, 2022
本文介绍了将预训练语言模型(PLMs)引入搜索引擎的相关技术及其在实际应用中所面临的问题,使用 ERINE 语言模型以及创新的预训练策略、调整排列信号的方法,成功提高搜索引擎的性能。
May, 2021
本文介绍了一个大型的中文数据集 DuReader_retrieval,旨在解决其他数据集的不足之处并确保质量,其中包含来自商业搜索引擎的 90K 条查询和超过 8M 个唯一段落,并对开发和测试集中的结果进行手动注释以减少假阴性,并提供用于跨领域和跨语言检索的测试集。
Mar, 2022
该研究论文通过构建一个新的大规模公共基准数据集,评估了通用图像嵌入的性能,并通过实验证明,与单独训练每个领域的模型相比,现有方法和简单的扩展方法的性能较差。
Sep, 2023