对话式搜索的零样本澄清性问题生成
通过基于自监督的新型启动框架,从 stackexchange 中提取 post-comment 元组,利用神经网络分类器构建了一个多样化、大规模的澄清问题数据集。将该数据集应用于问题回答的下游任务的实验表明其效用,并放出名为 ClarQ 的含 173 个领域的 2M 个实例的数据集。其目的是促进澄清问题生成的研究,以提升对话和问题回答系统。
Jun, 2020
本文详细介绍了对话系统提出澄清问题的挑战(ClariQ),为了解决信息查找中遇到的模糊问题,提供通用的评估框架以评估混合倡议式对话。
Sep, 2020
我们提出了一个简单而有效的方法来处理对澄清问题的回答,并介绍了一个对用户提出的问题和回答进行有用性评估的分类器,将有用的问题或回答附加到对话历史中,并传递给基于 transformer 的查询重写模块,实验证明与非混合主动的基线相比有显著改进。此外,所提出的方法缓解了使用不实用的问题和回答时性能下降的问题。
Jan, 2024
该研究分析了词汇排名模型在具有澄清问题的会话搜索数据集上的性能,探讨了不同方面的澄清问题和用户答案如何影响排名的质量,并介绍了一种基于启发式的词汇基线,它明显优于现有的朴素基线。
Aug, 2020
提出了一种风险感知的对话式搜索代理模型,平衡了回答用户查询和提出澄清问题的风险,并通过强化学习策略在 MSDialog 数据集上得到了比非风险感知基线更好的结果。
Jan, 2021
本文介绍了 USi,一种用于自动评估对话式搜索系统的用户仿真器,可自动回答与搜索主题有关的澄清问题,包括单轮和多轮交互。通过一系列实验证明了 USi 对人类生成的答案是相当的。
Apr, 2022
该研究提出了一种用于会话查询重写的 few-shot 生成方法,使用规则和自监督学习生成弱监督数据,并使用 GPT-2 进行优化以重写会话查询,在 TREC Conversational Assistance Track 上,我们的弱监督 GPT-2 重写器提高了 12%的准确性,仅使用极少量的手动查询重写。在零 - shot 学习设置下,该重写器仍然能够给出与之前最先进的系统相当的结果。
Jun, 2020
通过提出一个视觉基础的问题 - 回答模型框架,使用期望的信息量增益优化来产生极性澄清问题以消除人机对话中的误解,从而展示了该模型在目标导向的 20 个问题游戏中与人工回答者一起提出的问题如何提高交流成功率。
Oct, 2021
本文介绍了在开放领域信息寻求对话系统中提出澄清问题的任务,并提出了一个离线评估方法和一个命名为 Qulac 的数据集,以便评估模型的性能,其实验表明优质问题有助于提高信息检索的效率,并提出一个由三个部分构成的检索框架,该模型显著优于竞争基线。
Jul, 2019