逐步重新排序:研究大型语言模型的预过滤重新排序
通过使用自适应的筛选和重排序范式,使用大型语言模型和小型预训练语言模型相互补充,可以提高信息提取任务的性能和效率,并消减时间和预算成本。
Mar, 2023
此研究旨在探究大型语言模型在推荐系统中的排名能力,通过采用提示模板设计和引入特定策略,研究发现大型语言模型在候选物品的零 - shot 排名上有着很好的表现,但是若考虑历史互动的顺序、位移等因素,不同的提示和启发方法能够对大型语言模型的表现产生影响。
May, 2023
基于 Large Language Models (LLMs) 的技术,通过自动化查询 - 商品对的相关性判断,改善产品搜索的相关性预测精度,对商品搜索的相关判断自动化领域具有重要影响。
Jun, 2024
通过消除对 GPT 模型的依赖,本研究首次构建了有效的零阶科学可复现性的无需 GPT 依赖的排序器,能够在通行回收实验中表现出 13% 超越基于 GPT-3.5 的排序器,并达到了基于 GPT-4 构建的排序器的 97% 有效性。研究结果还显示,现有的点对点排序训练数据对于构建此类基于列表的排序器是不足够的,需要高质量的基于列表的排序数据,呼吁进一步建立人工标注的列表数据资源。
Dec, 2023
利用 Large Language Models(LLMs)实现了文本重新排名,并通过预算约束方法中的预测策略、预算分配和 LLM APIs 的选择,提出了一种高效的文本重新排名方法 EcoRank,实验结果表明其优于其他预算感知的监督和非监督基准方法。
Feb, 2024
LLM 预训练模型通过精心选择文档,可以在仅使用部分 FLOPs 的情况下实现与完整训练相当的模型质量;通过使用提示的 LLM 作为文档评分器,我们将质量标签提取并应用于大规模的互联网抓取数据集,以自动筛除部分文档,从而更好地匹配性能,并通过在上下文中学习来提高标签模型的性能。
Jun, 2024
此研究拓展了大型语言模型(LLMs)的应用,探索了它们在数据预处理中的潜力,包括错误检测、数据插补、模式匹配和实体匹配任务。我们提出了一个基于 LLMs 的框架,用于改进模型的性能和效率。实验结果表明 LLMs 在数据预处理中具有巨大潜力。
Aug, 2023