Inferring the position of objects and their rigid transformations is still an
open problem in visual scene understanding. Here we propose a neuromorphic
solution that utilizes an efficient factorization network b
本文提出一种利用神经学中向量符号体系(VSA)的计算范式构建的适用于神经形态计算的视觉里程计(VO)算法。该 VO 网络不仅可以生成并存储所呈现视觉环境的工作内存,同时在估计摄像机的位置和方向变化的同时更新这个工作内存。该文实验验证了该方法在机器人的简单任务和基于事件的数据集上关于 SLAM 任务的高性能表现。
本文提出了一种从 2D 视觉观察中学习动态 3D 场景模型的方法,结合神经放射场、时间对比学习和自动编码框架,可以学习到视点不变的 3D 感知场景表示,进而实现包括刚体和流体在内的具有挑战性的操作任务的视觉运动控制和未来预测,并支持摄影机视点外训练分布的目标规定,此外,还对不同系统设计进行了详细的改变研究和学习的表示的定性分析。