使用大型语言模型从用户 - 项目互动数据中生成合成故事查询,以用于训练 NDR 模型,并证明这是一种有效的策略,可用于训练小参数检索模型,从而优于其他检索和 LLM 基线。
Jun, 2023
提出了一种名为 NTRD 的新型框架,旨在解决基于对话式推荐系统中推荐项目无法精确恰当地纳入生成的回复以及只有出现在训练语料库中的项目才有机会在对话中被推荐的难题。 NTRD 具有两个关键组件,即响应模板生成器和项选择器,并结合了传统的槽填充方法和现代神经自然语言生成方法的优点。实验表明,我们的 NTRD 明显优于以前的最先进方法,并具有产生在对话语料库的训练集中未出现的新项目的独特优势。
Sep, 2021
提出一种名为 Disentangled Dense Retrieval(DDR)的新型 Dense Retrieval 框架来支持 DR 模型的有效和灵活的领域自适应,该框架包括一个 Relevance Estimation Module(REM)和几个 Domain Adaption Modules(DAMs),通过使 REM 和 DAMs 分离,DDR 实现了一种灵活的训练范式,在不同的领域和语言中都表现出比强大的 DR 基线更好的排名性能。
Aug, 2022
本文介绍了一种深度语义资源推理模型,实现了在信息检索中解决词汇不匹配问题,并在 TREC Terabyte 和 TREC CDS 数据集上展示了其在语义和深度学习 IR 模型方面的优越性。
Jun, 2017
本文介绍 DRaiL,一个开源的声明式框架,用于指定深度关系模型,旨在支持各种自然语言处理场景,并支持与表达性语言编码器的轻松集成,以及研究表示、推理和学习之间的相互作用。
Oct, 2020
提出了一种基于人的理由中心框架(RDL)来改善少样本学习场景下模型的超出分布性能,该框架利用其中包含的人类干预与半真实增强等因素来消除偏差,并使模型快速准确地推广到各种场景。
Mar, 2022
通过使用 Shapley 值以识别证据在最终预测中的相对重要性,Retrieve to Explain(R2E)能够根据文件语料库中的证据,优先考虑对研究问题的一组预先定义的可能答案,从而解决了机器学习模型特别是语言模型在解释性上的困难,并在从科学文献中识别药物靶标这一实用案例上展现了其优越性。
Feb, 2024
本研究论文使用分布式语义学方法,提出了一种新的奖励制度 DSR (Distributional Semantics Reward),用于评估候选摘要的性能,与传统的奖励模式相比,DSR 可以更准确地捕捉自然语言的词汇和构成多样性。
Aug, 2019
本文针对自然语言处理中最重要的问题之一 —— 自然语言推理(NLI),提出了一种从重要语篇标记中转移知识以提高 NLI 模型质量的方法,并使用强化学习优化了新的目标函数,通过 NLI 数据集的属性定义得出奖励,从而充分利用标签信息,实验结果显示,我们的方法在几个大规模数据集上取得了最先进的表现。
Jul, 2019
我们提出使用 Recurrent Embedding Dialogue Policy(REDP)和 Neural Turing Machine 技术,对机器人会话管理进行研究。研究结果表明 REDP 能够有效地处理顾客的不良行为,并在 bAbI 对话任务中实现了 100%的测试准确率。
Nov, 2018