本文介绍了使用卷积编码-解码模型提升直接视觉定位的鲁棒性,通过使用高保真度的合成 RGB-D 数据集及自然环境下的数据集,成功实现时间变化条件下的VO精度提高及光照变化情况下完善的指标重定位,并在定位的环境下进行了合成到真实场景的迁移学习。
Sep, 2017
本研究介绍了三维物体实例重新定位任务,提出了使用新的数据驱动方法——完全卷积三维对应网络和位姿优化来完成该任务,并使用新建立的 3RScan 数据集和基准测试来评估其性能,实现了 30.58% 的准确率。
Aug, 2019
本研究提出了一种新颖的联合语义本地化和场景理解方法, 通过训练卷积神经网络,通过物体实例的自我表征和6-DoF相机姿态预测来实现3D场景坐标估计,并且相比直接姿态回归或基于场景坐标的姿态估计算法更加准确。
Sep, 2019
本文提出了 RIO10 基准测试和工具,用于评估室内场景下长期相机重新定位的表现,并探讨了不同类型场景变化对不同方法的影响,并发现长期室内重新定位是一个尚未解决的问题。
Aug, 2020
本文通过分析两个广泛使用的重新本地化数据集,发现评估结果实际上随着参考算法的选择而有所差异,因此应考虑参考算法的类型和方法与参考算法的相似性。
Sep, 2021
本文提出一种使用伪深度测量的多模态RGB-D分类方法,通过多传感器融合方法和最新的域不变单目深度估计技术,克服了单模态RGB图像分类易受空间外观变化以及季节、天气、照明等域变化干扰导致精度下降的问题,并通过公共NCLT数据集进行跨域场景实验,证明了所提出的分类框架的有效性。
May, 2023
本研究提出了一种基于学习的直接定位方法, 使用简单的网络D2S来表示本地描述符和场景坐标, 通过选择性关注鲁棒描述符并忽略云、树木和其他动态物体的方法, 完成了稀疏描述符的二元-语义分类, 在室内和室外环境中超越了现有的基于CNN的方法。
Jul, 2023
通过EDITOR框架中的多模态对象ReID方法实现对背景的抑制、特征重提取、空间频率令牌选择和特征细化,以产生更具辨别性的特征,从而提高在复杂视觉场景中的对象再识别效果。
Mar, 2024
通过探索对象级别理解和重新识别技术,本文引入了CODa Re-ID数据集和CLOVER表达学习方法,可在不同光照条件和视角变化下实现静态对象的重新识别,并能推广到看不见的实例和类别。
Jul, 2024
本研究针对物体重新识别中的外观相似性和实地研究不足的问题,提出了一种新颖的重新识别框架,结合了时空融合网络与因果身份匹配(CIM)方法。该框架在多个数据集上表现出色,达到了99.70%的精度和95.5%的均值平均精度(mAP),证明了在真实场景中结合时空信息和CIM的重要性和有效性。
Aug, 2024