- 深度学习增强的传感器融合,以提高婴儿动作分类
通过传感器融合的方法,对婴儿的运动模式进行自动分类可能显著提高基于人工智能的神经功能的早期识别,最终促进神经发育状况的自动化检测。
- SpotNet: 图像为中心、激光雷达为锚点的长距离感知方法
通过 SpotNet 方法,结合 LiDAR 传感器融合 2D 和 3D 检测任务,实现稀疏 LiDAR 支持下准确的远距离 3D 目标检测,并且能够在不重新训练的情况下将检测结果从 2MP 分辨率图像转移到 8MP 分辨率图像上。
- 可靠自动驾驶车辆位置估计的 GPS-IMU 传感器融合
GPS 和 IMU 传感器融合在 GPS 无信号环境下提升自主车辆导航的可靠性和精度的方法。
- 全球尺度自监督传感器融合通道图
本文提出了一种新颖的信道绘图技术,通过利用周围传输接收点(TRPs)的到达时间测量和它们的位置,并在算法的训练阶段利用激光扫描仪数据,在信道绘图中融合传感器数据,以减小与 6G 设想数字之间的差距。仿真结果表明,我们的算法在 90% 的时间 - CVPR基于 RGB-D 和惯性场景流的相机运动估计
该研究介绍了一种新的相机运动估计方法,通过场景流集成 RGB-D 图像和惯性数据,旨在在刚性三维环境中准确估计相机运动和惯性测量单元(IMU)状态。通过对合成数据和真实数据进行评估,结果显示这两个传感器的融合相比仅使用视觉数据具有更高的相机 - 自主车辆感知系统中的摄像机和雷达传感器数据融合的跨领域空间匹配
该研究论文提出了一种新的方法来解决自主车辆感知系统中相机和雷达传感器融合的三维物体检测问题。该方法基于深度学习的最新进展,并利用了两种传感器的优势来提高物体检测性能。通过使用先进的深度学习架构从相机图像中提取二维特征,然后应用一种新颖的跨域 - TempBEV: 结合图像与 BEV 空间的时间聚合以改进学习的 BEV 编码器
通过融合多个传感器数据,通过学习的鸟瞰图编码器将不同视角的相机数据映射到一个联合的潜在空间中,通过在时域中聚合传感器信息,特别是单眼相机系统中缺乏明确的深度和速度测量时,能够进一步提高准确性。在文献中分析了鸟瞰图编码器并比较了它们的有效性, - 基于 SLAM 技术的自动换道行为预测与环境感知
研究论文探讨了在自动驾驶系统中应用 SLAM 技术(同时定位与地图构建),以实现自动车道变换行为预测和环境感知。通过比较激光雷达 SLAM 和视觉 SLAM,介绍了传统定位方法的局限性,并展示了特斯拉、Waymo 和 Mobileye 等公 - 智慧城市范围内智能应急交互响应系统的疏散管理框架
提出了一种智能互动应急响应系统,利用人工智能和传感器融合技术,优化城市中家庭、道路和公共设施等三个应用场景中发生事故的实时动态模型,进而将现有的应急响应系统转变为智能化互动系统,提高公共服务和居民生活质量。
- OccFusion: 一个简单有效的多传感器融合框架用于 3D 占用预测
该研究论文介绍了 OccFusion,一种直观高效的传感器融合框架,可用于预测三维占据情况。通过整合来自其他传感器(如激光雷达和环绕视图雷达)的特征,该框架提高了占据情况预测的准确性和稳健性,在 nuScenes 基准测试中取得了顶尖性能。
- RoadRunner -- 自主越野行驶的可行性估计学习
在本研究中,我们提出了一种名为 RoadRunner 的新框架,该框架能够从相机和 LiDAR 传感器输入中直接预测地形可通行性和高程图,通过融合传感器信息、处理不确定性和生成具有上下文信息的预测,实现可靠的自主导航,并减少系统延迟并提高可 - 多视角一致性学习用于异质传感器融合
为了评估机器学习模型单个预测的可信度,我们建立和测试了多视角和单视角的异构传感器融合的模型,这些模型基于相合预测框架,提供了理论上的边际置信保证。通过全面实验,我们证明了多视角模型不仅在准确性性能度量方面(已在多个之前的工作中显示),而且在 - iMove: 探索生物阻抗传感技术用于健身活动识别
通过传感器融合和对比学习,通过生物阻抗技术改进基于惯性测量单元的健身追踪系统,提高了准确性和人体活动识别的能力。
- 自适应卡尔曼信息变换器 A-KIT
本研究介绍了一种自适应的 Kalman-fusion 变换器 (A-KIT) 方法,通过学习实时变化的过程噪声协方差矩阵来提高传感器融合的性能,并通过实验表明,相对于传统的 EKF 和基于模型的自适应 EKF,A-KIT 在位置精度上提高了 - 基于传感器融合的 GNSS 欺骗攻击检测框架在自动驾驶车辆上的实验验证
验证传感器融合型 GNSS 欺骗攻击检测框架在自动驾驶车辆中的性能,并使用两种策略进行检测:通过传感器融合和机器学习来判断位置变化,以及使用机器学习模型检测和分类转弯。通过实验证明该框架能够有效地检测各种复杂的 GNSS 欺骗攻击。
- PhyOT:物理信息导向的监控摄像头目标跟踪
通过深度学习和算法的融合,我们提出了一种用于物体追踪的混合模型 (PhyOT),该模型将深度神经网络视为卡尔曼滤波器中的 “传感器”,利用牛顿运动定律的先验知识来融合传感器观测并进行改进的估计。实验结果表明,我们的 PhyOT 在极端条件下 - 基于无标定变压器特征融合的三维目标检测
通过使用 transformers 在多个传感器的多个抽象级别上映射特征,我们提出了首个无需校准的 3D 物体检测方法,消除了复杂和昂贵的校准过程,不仅在 BEV mAP 上优于单模态设置 14.1%,还表明 transformer 确实学 - 基于对比学习的单传感器活动识别的虚拟融合
利用虚拟融合方法利用多传感器的未标记数据进行训练,在推理时仅需要一个传感器,提高了人体活动识别准确性,甚至超过实际融合。该方法在 UCI-HAR 和 PAMAP2 基准数据集上取得了最先进的准确度和 F1 值。
- 视觉与毫米波雷达相遇:自动驾驶的三维物体感知基准
传感器融合在自主车辆的准确和健壮的感知系统中至关重要。大多数现有的数据集和感知解决方案都专注于相机和激光雷达的融合,然而相机和雷达之间的协作被显著地低估。本论文介绍了 CRUW3D 数据集,包括 66K 个在不同行驶情景中同步并进行了校准的 - LCPR: 基于多尺度注意力的 LiDAR 相机融合网络用于地点识别
提出了一种名为 LCPR 的新型神经网络,该网络融合 LiDAR 点云和多视角 RGB 图像,生成环境的具有区分性和偏航旋转不变性的表示,从而提高了地点识别性能并保持了对视角变化的强鲁棒性。