无需问题示例的开放领域澄清问题生成
探索了关于一张图片是如何引发常识推理和抽象事件的问题,提出了一项新颖任务视觉问题生成(VQG),该系统的任务是在展示了一张图片后提出自然而引人入胜的问题,我们提供了三个数据集,涵盖了从目标为中心到事件为中心的各种图像,其中训练数据远比现有最先进的字幕系统提供的数据更抽象,通过训练和测试几种生成和检索模型来解决VQG这个任务,评估结果表明,尽管这样的模型为各种图像提出了合理的问题,但与人类性能的差距仍然很大,这激发了我们进一步探索将图像与常识和语用知识联系起来的相关研究。
Mar, 2016
研究了大规模开放领域会话系统中好问题的提问,通过两种类型的解码器实现,分别是软类型解码器和硬类型解码器,使用三种类型的分布模拟生成分布,得到了有关问句的数量和有意义的实验结果。
May, 2018
本文提出了一种模型,通过最大化图像、期望回答和生成的问题之间的互信息,引入可变连续潜在空间来解决自然语言离散标记的无法计算问题,并通过第二潜在空间实现类似回答聚类,实现目标驱动的提取物体、属性、颜色、材质等信息,并在实测中实现获取之前未见过的视觉概念的目标。
Mar, 2019
在视觉对话任务中生成面向目标的问题是一个具有挑战性且长期存在的问题。本文提出了一种基于信息搜索和跨情境单词学习的认知文献的启发式模型 Confirm-it 来生成更自然和有效的问题,并在 GuessWhat?! 游戏上进行了案例研究。
Sep, 2021
研究旨在通过提出管道方法并基于多轮对话以及有效进行离线和在线步骤来评估澄清问题的质量,以收集和发布一个新的、聚焦于开放域单轮和多轮对话的数据集,并基准定位几个最先进的神经线路。
Sep, 2021
本文提出了使用零样本学习生成澄清问题的方案,并且通过问句模板和查询维度来引导澄清问题的生成,实验结果表明,该方法在自然度、有效性和多样性等方面表现优异。
Jan, 2023
SG-CQG是一个用于回答无答案设置下如何生成与要求自然的对话的方法,它通过语义图和具有明确控制信号的分类器来解决what-to-ask和how-to-ask的挑战。同时,提出了新的评估指标Conv-Distinct,并在实验中取得了最先进的表现。
May, 2023
提出了一种基于澄清问题的开放领域问答方法,首先使用InstructGPT和手动修订生成澄清问题的数据集CAMBIGNQ,然后设计了一系列任务和合适的评价指标,在模糊性检测和基于澄清问题的问答方面取得了61.3 F1和40.5 F1的成果。
May, 2023
利用Transformer序列到序列模型,我们提出了可控重写极性问题的答案,形成无情境且简洁的事实陈述,实现与PQA输入的语义等价。通过自动化和人工评估指标,我们在三个不同的PQA数据集上评估,结果表明我们的方法在性能上优于现有基线模型。
Jan, 2024
通过团队对话任务为实验平台,研究模型不确定性与人类不确定性之间的关系,提出了一种基于模型不确定性估计的生成澄清问题的方法,并与其他几种方法进行对比,显示出在任务成功方面有显著的改进。
Feb, 2024