学习提出好问题:通过神经期望完美信息值对澄清问题进行排名
教机器提出澄清问题对于自然语言处理系统非常有用,本研究使用 Siamese BERT 模型,将 NLI 的特征运用在 StackExchange 数据集问题排序上,取得了相对于现有基线模型高达 40% 至 60% 的性能提升。
Aug, 2020
通过提出一个视觉基础的问题 - 回答模型框架,使用期望的信息量增益优化来产生极性澄清问题以消除人机对话中的误解,从而展示了该模型在目标导向的 20 个问题游戏中与人工回答者一起提出的问题如何提高交流成功率。
Oct, 2021
该论文介绍了 NetEase 游戏 AI 实验室团队参加 2020 年 Search-oriented Conversational AI(SCAI)EMNLP 研讨会 ClariQ 挑战的情况。我们提出了一个澄清问题选择系统,它由回复理解、候选问题回忆和澄清问题排名组成。在实验中,我们使用 RoBERTa 模型来理解用户的回复,并使用 BM25 模型回忆候选问题。在澄清问题排名阶段,我们基于 ELECTRA 提出了两种模型,并将它们的输出概率相加,选择概率最高的问题作为澄清问题。实验结果表明,我们的模型在文档相关性任务中表现优异,且在问题相关性任务中达到了最佳的 recall@[20,30] 指标,而在第二阶段的多轮对话评估中,我们的系统获得了所有文档相关性度量的最高分数。
Oct, 2020
本文详细介绍了对话系统提出澄清问题的挑战(ClariQ),为了解决信息查找中遇到的模糊问题,提供通用的评估框架以评估混合倡议式对话。
Sep, 2020
我们提出了一个简单而有效的方法来处理对澄清问题的回答,并介绍了一个对用户提出的问题和回答进行有用性评估的分类器,将有用的问题或回答附加到对话历史中,并传递给基于 transformer 的查询重写模块,实验证明与非混合主动的基线相比有显著改进。此外,所提出的方法缓解了使用不实用的问题和回答时性能下降的问题。
Jan, 2024
通过团队对话任务为实验平台,研究模型不确定性与人类不确定性之间的关系,提出了一种基于模型不确定性估计的生成澄清问题的方法,并与其他几种方法进行对比,显示出在任务成功方面有显著的改进。
Feb, 2024
该研究分析了词汇排名模型在具有澄清问题的会话搜索数据集上的性能,探讨了不同方面的澄清问题和用户答案如何影响排名的质量,并介绍了一种基于启发式的词汇基线,它明显优于现有的朴素基线。
Aug, 2020
本文介绍了针对协作构建任务的智能建造代理的开发,旨在通过对话根据用户输入构建结构,并讨论了 NeurIPS 2022 竞赛的 NLP 任务中涉及的两个研究问题:代理何时应该请求澄清和应该提出什么澄清问题,并针对这两个问题进行了两个子任务,即分类任务和排序任务。
May, 2023
本文提出了通过增强学习模型来澄清模糊问题的方法,包括分割问题、选择标签、确认意图和构建适当的响应。模型基于深度政策网络的强化学习模型,通过真实用户点击数据评估并展示了显著的性能提升。
Dec, 2020
本文介绍了在开放领域信息寻求对话系统中提出澄清问题的任务,并提出了一个离线评估方法和一个命名为 Qulac 的数据集,以便评估模型的性能,其实验表明优质问题有助于提高信息检索的效率,并提出一个由三个部分构成的检索框架,该模型显著优于竞争基线。
Jul, 2019