本文研究了如何将对话管理器的能力融入端到端的基于视觉的对话代理,通过增加一个决策组件来决定是否询问一个图像中的目标指代,可以减少冗余和不必要的问题,并且可能导致更高效和更自然的交互。
May, 2018
本文提出并评估了一种基于多智能体社区的对话框架,在不牺牲任务性能的情况下,通过社区强制规范产生更相关和连贯的对话。
Aug, 2018
本篇论文提出了基于贝叶斯模型和不确定性感知的信息寻求模型,以解决视觉对话问题中agent提出问题的困难。实验结果表明,在两种挑战性的问题中,我们的方法都优于其它相应的方法。
Dec, 2018
本文研究了目标导向的视觉对话任务,提出了一种结合强化学习和正则化信息增益的端到端目标导向视觉对话系统,并在GuessWhat?!数据集上进行了测试,取得了优于当前最先进模型的显著结果。
Jul, 2019
本文提出递归心智模型 (Recursive Mental Model,RMM),通过两个智能体的对话交互,其中一个询问问题,另一个给予回答,模拟类比人类对话,通过RMM可以更好地应对新的环境变化,为人机对话提供新思路。
May, 2020
在视觉对话任务中生成面向目标的问题是一个具有挑战性且长期存在的问题。本文提出了一种基于信息搜索和跨情境单词学习的认知文献的启发式模型 Confirm-it 来生成更自然和有效的问题,并在 GuessWhat?! 游戏上进行了案例研究。
Sep, 2021
通过提出一个视觉基础的问题-回答模型框架,使用期望的信息量增益优化来产生极性澄清问题以消除人机对话中的误解,从而展示了该模型在目标导向的20个问题游戏中与人工回答者一起提出的问题如何提高交流成功率。
Oct, 2021
通过团队对话任务为实验平台,研究模型不确定性与人类不确定性之间的关系,提出了一种基于模型不确定性估计的生成澄清问题的方法,并与其他几种方法进行对比,显示出在任务成功方面有显著的改进。
Feb, 2024
本研究解决了对话系统评估效率与准确性缺乏的方法问题,通过比较人类与AI在多种对话场景下的评估表现,揭示了GPT模型与人类判断的紧密一致性。研究表明,尽管GPT-4o在保持事实准确性和常识推理上表现良好,但在减少冗余和自我矛盾方面仍需改进,为未来更精准的对话评估方法奠定基础。
Sep, 2024
本研究解决了对话系统和聊天机器人在日常互动中的评估效率和准确性不足的问题。通过对人类和AI在多种对话场景下的评估性能进行比较,揭示了GPT模型与人类判断的一致性,尤其是在保持事实准确性和常识推理方面的强大表现。研究结果为提高对话评估方法和促进更人性化的AI沟通工具的发展提供了重要见解。