本文针对完整回应的检索任务,提出了对话背景和回应扩充技术的检索方法,探析了稀疏检索和零样本以及微调密集检索方法,并发现通过练习 “学习到的回应扩充技术” 是稀疏检索的一个坚实基础。我们最终发现,整体表现最好的方法是密集的检索中级训练,即是模型先预训练语言模型,再根据目标对话数据进行微调,同时我们研究发现,更难的负采样技术导致微调的稠密点检索模型更糟糕。
Apr, 2022
本文研究表明,使用大量参数的深度学习模型可用于启用高级神经密集检索系统有效地运行于相对廉价的硬件上,特别适用于云服务中支持大量个性化对话系统以及其各自的文本语料库。
May, 2022
本文提供了一种 3 步程序来开发满足业务要求的对话模型,包括从历史对话中创建模板、使用神经网络建立对话上下文和业务约束,以及通过自我监督和受训者的方法优化模型,并进行实验验证并在人机交互的环境中应用于商业对话。
Oct, 2022
该研究提出了一种在深度神经匹配网络上利用外部知识进行响应排序的学习框架,实验证明,该方法在包括商业数据在内的三个信息寻求对话数据集上优于各种基线模型,包括多个深度文本匹配模型和多轮对话响应选择的最新方法。
May, 2018
通过在大型通用领域对话语料库上预训练反应选择模型,然后利用小型特定领域数据微调预先训练的模型,本论文提出了一种有效的方法来部署任务导向对话中的响应选择,取得了很好的效果。在六个不同的应用领域,从电子商务到银行业,本方法都表现出了良好的效果。
Jun, 2019
本文以学习到的密集表示为基础,描述了一种紧凑而有效的模型,用于对话搜索中的低延迟段落检索。 通过将对话查询重构直接整合到密集检索模型中,我们提出了一种新方法来解决现有流程的问题。 在构建具有伪相关性标签的数据集的基础上,证明了该模型可用于会话检索和开放域问答数据集,最后通过改进的检索模型学习到的特性,支持混合检索和错误分析。
Apr, 2021
本研究对开源聊天机器人的多种回复生成方法进行了系统评估,提出了利用手动注释筛选出的多个正向回复和负向回复,从而提高模型效果的新训练数据,并实验证明性能较之采用对抗训练数据有更显著提升。
Aug, 2022
信息检索一直是信息检索研究的重点之一。近年来,提出了 Dense Retrieval(DR)技术来缓解诸如词汇不匹配问题等固有缺陷,但是绝大多数现有 DR 模型的培训都依赖于从语料库中抽样负实例来优化成对损失函数,即不公平的样本,因此提出了 Learning To Retrieve(LTRe)培训技术, 它通过预先构建文档索引,并在每个培训迭代中在没有负样本采样的情况下执行全检索,从而在整个语料库中检索相关文档,实验表明,LTRe 在有效性方面明显优于所有有竞争力的稀疏和密集基线。它甚至在合理的延迟限制下比 BM25-BERT 级联系统表现更好。
Oct, 2020
本文介绍了近期基于 PLMs 的 dense retrieval 的相关研究进展,从架构、训练、索引、集成四个方面总结了主流技术,并提供了网站和代码库等丰富资源以支持读者的研究工作。
Nov, 2022
提出了一种上下文感知的对话响应重新排序系统,使用神经词嵌入模型和手工或逻辑回归模型,将响应在与当前对话上下文的匹配分数和候选人的概率分布的基础上重新排名,提高了最近提出的端到端任务导向对话系统在具有语音识别错误的实际对话中的性能。
Nov, 2018