DiaLoc:一个迭代式的具身对话定位方法
本研究提出了一种基于 LED-Bert 结构的 Localization via Embodied Dialog 方法,使用基于图的场景表示来预测观察者在地图上的最终位置,实验结果表明该方法优于之前的基准方法。
Oct, 2022
CyberLoc 是一种图像定位管道,可在困难条件下实现稳健且准确的长期位姿估计;该方法由四个模块组成,包括地图构建、基于单个图像的定位、一致性最大化、鲁棒姿态优化,实验结果表明该方法能够在 Map-based Localization for Autonomous Driving 中获胜
Jan, 2023
本文提出了一个名为 way 的数据集,其中包含了约 6k 个人类-人类对话,用于合作式定位任务。本文着重研究基于嵌入式对话 (LED) 的定位任务,并提供了一个强有力的基线模型和不同建模选择的详细分析。最佳模型在处理未知场景时实现了 32.7% 的预测准确率,人类处理此类任务的预测准确率为 70.4%。
Nov, 2020
DIALIGHT 是一个用于开发和评估多语言任务导向对话系统的工具包,它通过使用预训练语言模型(PLMs)的微调以及利用大型语言模型(LLMs)的零 - shot 和上下文学习能力,促进了多种 ToD 系统之间的系统化评估和比较。我们的评估发现,虽然 PLM 的微调可以提高准确性和一致性,但基于 LLM 的系统在产生不同且受欢迎的回应方面表现出色。然而,我们也发现 LLMs 在遵守任务特定指令和生成多语言输出方面存在重大挑战,为未来研究提供了重要的方向。我们希望这个开放源代码的工具包将成为开发和适当评估多语言 ToD 系统的研究人员的宝贵资源,并降低当前在该领域的入门门槛。
Jan, 2024
采用条件神经网络将节点视角信息注入定位管道以适应于未见的视角,显著提高多视图室内跟踪中定位准确性的 FlexLoc 技术。
Jun, 2024
为了推动自动化任务导向对话系统的评估,本研究提出了一种基于预训练语言模型的新型用户模拟器,并通过上下文学习来生成具有鲁棒性和语言多样性的输出,以模拟人类对话行为。通过与现有对话系统交互,并收集人机交互数据集,验证了该用户模拟器在单一意图对话目标方面的表现与人类相似。
Sep, 2023
通过探索三种方法并在 SIMMC 2.1 数据集上进行评估,我们提出了一种最有效的方法 —— 场景对话对齐,相较于 SIMMC 2.1 基准提升了约 20% 的 F1 分数。我们还分析和讨论了该方法的局限性以及未来研究的潜在方向。
Feb, 2023
本文研究了多模态经验、语言学习和具体到抽象的词汇发展历程,并提出了一种结合当代模型和基于词汇的模型的语义模型,并使用机器人对话系统来学习语言。
May, 2021
本研究提出了 VLocNet ++ 体系结构,采用多任务学习方法来利用学习语义,回归 6-DoF 全局姿势和里程计之间的相互关系,以使每个任务都获得相互的好处。我们的网络通过同时将世界的几何和语义知识嵌入姿势回归网络来克服上述限制。大量实验证明,我们的方法均能胜过以本地特征为基础的方法,同时实现多个任务并在挑战性场景中表现出相当的鲁棒性。
Apr, 2018
本文研究了多模式翻译任务的两个子任务:学习翻译和学习视觉有关表征,并在多任务学习框架中通过注意力编码器 - 解码器和图像表征预测的方式实现。通过实验发现,这种方法在 Multi30K 数据集上比基准表现要好,即使在外部 MS COCO 数据集进行训练也同样有效,而在外部 News Commentary 平行文本训练翻译模型时进一步提高了性能。
May, 2017