- 摄像头无关的用于自我车道推理的双头网络
基于高清地图的视觉自车道推断对于自动驾驶和高级驾驶辅助系统至关重要。本文提出了一种基于学习的自车道推断方法,通过直接估计由单个图像生成的自车道索引来提高鲁棒性。为了适应视角变化而无需精确校准,我们的模型采用了由消失点和线引导的注意力机制,并 - 面向公平高效的基于学习的拥塞控制
Astraea 是一种基于深度强化学习的拥塞控制算法,通过多智能体框架并在训练过程中显式优化收敛性质,以实现公平性和稳定性的快速收敛。
- 基于环视摄像头鸟瞰的联合车辆分割和自车轨迹预测
基于多个深度学习技术的视觉感知线路预测系统可用于自动驾驶车辆,通过管辖车辆分割和自车轨迹预测的联合任务,综合表示周围车辆的鸟瞰视角并使用时空概率网络进行轨迹预测。
- 快速离散优化用于几何一致的三维形状匹配
结合学习和组合形式主义,提出一种新的组合求解器,应用于三维形状匹配,解决了学习方法和公理化方法之间的局部不平滑性和问题规模以及非凸优化问题的计算成本的问题。
- ICCV声源定位是关于跨模态对齐的全部内容
我们提出了一个跨模态对齐任务作为声源定位的联合任务,以更好地学习音频和视觉模态之间的交互,并在声源定位和跨模态检索方面超越了现有的方法,从而实现了较高的定位性能和强大的跨模态语义理解。
- SphereNet: 学习点云配准的噪声鲁棒性和通用描述器
点云配准研究中,引入了 SphereNet 以学习一个对噪音具有鲁棒性且适用于未知数据集的描述符。通过球体体素化和球面插值等方法,提取特征,并在新的 3DMatch-noise 基准测试中得到了 25% 以上的特征匹配召回率的提升,同时在 - 使用物理信息机器学习校准宏观交通流模型
本文提出了一种新颖的基于物理信息和深度自编码器的学习校准方法,通过结合经典的深度自编码器和交通流动模型,以相对于传统基于优化方法的方法可比甚至更好的性能处理流量和速度测量来推出合理的交通参数。同时,引入去噪自编码器来应对有缺失值的交通数据的 - 基于 3D 模型的零样本姿态估计流水线
本文介绍一个新的零样本视角估计管道,主要基于 3D 模型的零样本实例分割和零样本姿态估计。实验结果表明,该方法在速度和计算成本方面优于当前零样本状态的最佳方法。
- 通过语义学习猜测 LTL 综合中的获胜策略
本研究通过学习的方式提供了一种猜测赢得 LTL 综合问题特定形式的胜利策略的技术,并在比较之前的相关研究的基础上,结合人类类推角度将在构建游戏状态的高度结构化逻辑信息,即语义标记方面的显著优化。
- EFE: 端到端的帧到凝视估计
该论文提出了一种基于帧的直接预测 3D 注视原点和 3D 注视方向的网络,在三个公共焦点数据集上实现了可比较的结果。
- 从单张图像重建高保真度着装化身
本文提出了一个高效的三维服装化身重建框架。该框架通过高精度的基于优化的方法和高效的基于学习的方法相结合,以从单个图像中实现高保真度的服装化身重建为目标。通过在规范空间中以基于学习的方式使用隐式模型来学习人的一般形状,并通过以优化方式在姿态空 - ECCV学习图像去模糊的退化表示
本文提出了一种多尺度退化注入网络 (MSDI-Net) 的框架,以学习模糊图像的空间自适应退化表示,并将其集成到神经网络中,用于实现图像去模糊。在 GoPro 和 RealBlur 数据集上的实验证明,该方法优于现有的最先进方法和具有吸引力 - 基于模拟的视觉策略学习与真实世界中未见洞孔的棒插入
本文提出了一种基于学习的视觉针孔方法,能够通过模拟对多种形状进行训练,并以最小的模拟到真实世界成本适应任意未见形状。
- CVPRFVC:基于特征空间的深度视频压缩新框架
本文介绍了一种在特征空间内实现运动估计、压缩、补偿和残差压缩的视频编码网络,通过多帧特征融合模块,并利用非局部注意力机制融合多帧参考特征提高帧重建效果,该网络在四个基准数据集上达到了最先进的性能。
- ErGAN: 实体消解的生成式对抗网络
提出一种新的深度学习方法 ErGAN,利用生成式对抗网络(GAN)解决学习实体匹配中的标记成本高的问题,包括两个关键组件:标签生成器和判别器,以及旨在提高模型泛化能力的多样性和传播模块。经过实验证明,ErGAN 在标记和学习效率上优于当前最 - 机器人应用中 LiDAR 自监督学习测距法
提出了一种多用途的自监督 LiDAR 里程计估计方法,该方法在训练期间有选择地应用几何损失,无需任何标签或地面数据,适用于精度难以获得的应用中的姿态估计。
- TartanVO:基于学习的通用 VO
本研究提出了首个基于学习的视觉里程计模型,利用 TartanAir SLAM 数据集中提供的大量多样化的合成数据,采用尺度损失函数和相机内参将模型泛化到多个数据集和真实世界场景中,无需微调即可应用于 KITTI 和 EuRoC 数据集,并在 - ECCVAUTO3D: 通过无监督学习的变分视角和全局 3D 表示进行新颖视图综合
本论文主要探讨基于学习的单个或有限 2D 图像的新视角合成,提出了一个端到端可训练的条件变分框架,通过空间相关模块从外观描述图像中提取全局的 3D 表示形状、纹理和以观察者为中心的坐标系原点等,实现无需显式 3D 重建即可隐含 3D 理解。
- CVPR基于深度排列几何嵌入和结构一致性正则化的光场空间超分辨率
本文提出一种基于学习的轻场景图像空间超分辨率框架,在每个轻场景图像视角学习探索不同的信息,并通过正则化网络结构来确保场景的正确视差关系,实验结果表明该方法不仅提高了平均峰值信噪比超过 1.0 dB,而且以更低的计算成本保持了更准确的视差细节 - CVPR使用图卷积网络进行点云上采样的 PU-GCN
本研究提出了一种基于学习的点云上采样管道,其中使用 NodeShuffle 作为点上采样模型,并提出了一个新的多尺度点特征提取器,称为 Inception DenseGCN,将其与 NodeShuffle 结合成一种新的点上采样管道 PU-