基于语义的人形机器视觉任务的主动感知技术与视点焦点传感器
本文研究了具体化视觉主动学习任务,该任务通过选择性的视野请求注释来探索三维环境,以获取场景理解,我们通过开发一系列智能体来研究具体化视觉主动学习,其中智能体配备语义分割网络,并使用深度强化学习以及奖励函数平衡任务性能和必要注释数据请求,得到了可靠的结果。
Dec, 2020
提出一种基于 RGBD 重建和语义分割的机器人操作主动理解未知室内场景的新方法,利用离线估计的离散视野分数场来驱动机器人的勘探扫描,结合基于体素的实时语义标注,优化遍历路径和相机轨迹,从而实现高效准确的在线场景解析。
Jun, 2019
该论文提出了一种基于联合三维几何和语义理解的新方法来解决计算机视觉中困难的视觉定位问题,该方法使用生成模型进行描述符学习,并在语义场景补全作为辅助任务进行训练,以使得生成的三维描述符具有鲁棒性,并能够实现在极端视角,光照和几何变化下的可靠定位。
Dec, 2017
本研究提出了一个轻量级、全 CPU 基于的 “图神经本地化器” 框架,旨在解决语义定位问题。该框架结合了场景图和图神经网络技术,首先训练了一个场景图分类器用于被动视觉,然后将其知识转移到强化学习规划器用于主动视觉。实验表明,该方法在自我监督学习和无监督域适应两个场景下都具有效果。
May, 2023
我们提出了一个新的框架,利用姿态化的 RGB-D 测量和 2D 语义标签作为输入,进行语义目标的主动重建,实现对感兴趣目标的自适应视角规划,从而在网格和新视角渲染质量方面实现更好的重建性能,超过不考虑语义的隐式重建基线和基于显式地图的最先进的语义目标主动重建流水线。
Mar, 2024
我们提出了一种在室内环境中获取语义分割和目标实例检测伪标签的成本效益标注方法,旨在为各种下游任务训练轻量级模型提供便利,通过多视图标注融合阶段,识别和纠正单视图不一致现象,并通过与人工注释的比较和目标导航等下游任务的效果评估,证明了该方法的有效性。
Nov, 2023
本文提出了一种基于层次化对象中心生成模型的场景理解方法,利用神经启发式的行动和感知框架实现了代理的对象类别和姿态的推断,并提出了一个新的基准来评估主动视觉代理的行为,并表明我们的主动推理代理在平衡认知觅食和目标驱动行为方面表现优异,远胜于监督和强化学习基线。
Feb, 2023
采用移动系统进行高效视觉感知是至关重要的,特别是在未知环境下,如搜索和救援行动中,对感兴趣对象的快速和全面的感知是至关重要的。在本研究中,我们提出了一种新的信息增益方法,它将可见性增益和语义增益以统一的形式整合起来,以选择下一个语义感知感兴趣点,并设计了一个自适应策略来支持多自由度移动系统对多个感兴趣对象进行搜索和获取。通过模拟实验证明了所提方法的优越性,ROI 与整体重建体积比的改善幅度可达 27.13%,平均视角方向性达到 0.88234,并且所规划的运动轨迹对目标的感知覆盖更好。
Apr, 2024