- Rescan: 室内 RGBD 扫描的归纳式实例分割
我们提出了一种算法,它可以通过分析建筑内部的 3D 扫描结果和语义实例信息,对建筑中的物体进行追踪,最终的实验结果表明,我们的算法在这一领域取得了比当前最先进网络更出色的表现。
- ICCV通过深度强化学习和专家演示实现的视觉追踪
通过应用强化学习的最新趋势并借鉴专家代理的演示,提出了两种新型跟踪器:A3CT 和 A3CTD,均利用现有的跟踪器进行有效的跟踪,并在多个基准测试中取得了最新的成果。
- IJCAIRBCN: 提高 1 比特 DCNN 性能的修正二进制卷积网络
本文提出一种名为修正二值卷积网络(RBCNs)的优化二值卷积神经网络的方法,通过结合全精度卷积核和特征图在统一框架内实现二值化过程的校正,并使用生成对抗网络(GAN)以其相应的全精度模型为指导来训练 1 位二进制网络,从而显著提高了 BCN - 学习面向目标的双重注意力,实现 RGB-T 跟踪的稳健性
本文提出了两种用于 RGB-T 目标跟踪的视觉关注机制,其中包括利用 RGB 和热感数据的局部关注和多模态目标驱动关注估计网络的全局关注。在两个 RGB-T 基准数据集上的实验验证了我们提出算法的有效性。
- TrackNet:一种用于体育应用中追踪高速小目标的深度学习网络
本研究通过使用深度学习模型 TrackNet,从模糊、带残影并有时不可见的广播视频中跟踪网球。在 2017 年夏季大学运动会男子单打决赛的视频上,TrackNet 的准确度、召回率和 F1-measure 达到了 99.7%、97.3%和 - 热红外物体跟踪的深度多层相似度学习
本研究提出一种多层相似性模型来提高红外物体跟踪的辨别能力,其中利用了卷积层计算 TIR 对象的全局语义相似度和本地结构相似度,通过一种相对熵的集成子网络进行集成,并构建了大规模 TIR 视频序列数据集以优化算法效果。
- LightTrack: 一种通用的在线自上而下的人体姿态跟踪框架
本文提出了一个新颖的轻量级框架 LightTrack,用于在线人体姿态跟踪。该框架集成了单人姿态跟踪和视觉对象跟踪,使用可替换的单人姿态估计模块,将单人姿态跟踪统一到多人身份关联中,并提出了人体姿态匹配的 Siamese Graph Con - ICCV欺骗视觉目标跟踪的物理对抗纹理
本文提出了一种生成不引人注目的材质的系统,能够迷惑物体跟踪系统,比如通过使用各种优化策略生成对抗性材质,进而在物理世界中对机器人相机进行视觉混淆,实现物体规避目的。同时,作者比较了不同的条件变量,包括视点,光照以及外观,以寻找实用的高性能攻 - 基于运动补偿的事件驱动运动分割
本研究提出了第一种基于事件相机的感知运动信息分割方法,通过建立在事件感应技术和运动补偿上的目标函数联合估计事件 - 目标关联,从而实现了场景中的独立运动目标分割和运动参数估计,并在公共数据集上取得了比最新技术研究成果高达 10% 的有效结果 - 基于深度外观和运动特征融合的无模型跟踪
本研究基于卷积神经网络设计了一种实时的无模型对象跟踪方法,通过研究外观和运动特征,提出了一个端到端的离线训练的两流网络 AMNet,该网络通过匹配策略追踪目标并深度检测来定位目标,在 OTB 和 VOT 基准数据集上取得了领先的性能。
- 基于材料的高光谱视频目标跟踪:基准和算法
利用高光谱图像的物质信息提出了材料特征表示和基于材料的物体跟踪方法,并构建了一个全面标注的数据集进行实验验证。
- 基于轨迹的物体检测和追踪集成
本文提出一种新方法,通过在先前帧中计算的轨迹片段上使用对象检测来增加检测与追踪之间的协作,以获得更平稳和稳定的对象轨迹,从而在检测和跟踪精度上实现最先进的表现。
- 通过视角特定的判别性相关滤波器重建实现物体跟踪
该研究提出了一种新的长期 RGB-D 跟踪器 - 通过重构物体实现的目标跟踪 (OTR),通过进行在线 3D 目标重建,完成强健学习一组视图特定的相关性筛选器 (DCFs) 以实现跟踪目标,经过对 Princeton RGB-D 跟踪和 S - 多层独立相关滤波器用于视觉跟踪
设计了一种新的跟踪框架 MHIT,其核心在于引入运动估计模块捕捉运动信息和使用多层次深度特征和独立的相关滤波器进行跟踪,同时采用自适应的多分支相关滤波器融合方案,用于纠正特征冗余和物体局部遮挡的影响,通过实验证明,该系统可以显著提高跟踪性能 - 实时语义分割的背景减除
本文提出了一种基于实时语义分割的新型背景减除定义,其由传统的背景分割器和实时语义分割器组成,并在 CDnet 数据集上评估,达到了同类无监督背景减除方法的最优表现,甚至优于某些基于深度学习的有监督算法,并且具有潜在的泛化能力。
- AAAI检测还是跟踪:朝着成本效益高的视频目标检测 / 跟踪方向
通过使用现有的探测器和追踪器,本文提出了一种基于双子追踪器的调度器网络来提高视频目标检测 / 跟踪的准确性,其比跳帧和基于流的方法更加高效,经过了在 ImageNet VID 数据集上的验证。
- LaSOT:大尺度单目标跟踪高度质量基准
本文提出了 LaSOT,一个用于对象跟踪的高质量基准数据集,它包括大量具有视觉挑战的序列,同时还提供了自然语言方面的数据丰富,以促进自然语言特征的研究。35 种跟踪算法在该数据集上进行了实验,并发现仍有很大的改善空间。
- ECCV用立体视觉进行语义化三维物体和自我运动跟踪,用于自动驾驶
本文提出了一种基于立体视觉的方法,用于在动态自动驾驶情景下跟踪摄像机姿态和三维语义对象,该方法使用易于标注的二维检测和离散视点分类结合轻量级语义推理方法获取粗略的三维物体测量,并基于当前的物体感知相机姿态跟踪实现物体位置的估计与 3D 建模 - CVPR多核相关滤波器实现高速跟踪
本研究将多核学习应用于相关滤波器(CF)算法的升级,提出了一种新的 KFCK 算法(MKCFup),通过消除不同核之间的负互干扰,显著提高了算法的准确性和速度,实现了对高速小移动目标的有效跟踪。
- 顺序关注、推理、重复:运动物体的生成建模
本文介绍了一种基于深度生成模型的可解释视频对象追踪算法 Sequential Attend, Infer, Repeat (SQAIR),它可以对视频中的对象进行可靠的发现和跟踪,并可以生成未来的视频帧,该模型的潜在变量明确地编码了对象的存