本研究使用 YOLO 模型和 OpenCV 库,利用实时视频检测对象并将图像识别结果以可听形式提供给视觉障碍者,成功实现了优秀的平均准确率 (mAP)。
Dec, 2023
建议利用传感器和算法的组合,建立一个适用于视障人士的导航系统,该系统基于传统的 RGB-D 相机,结合鱼眼相机的信息,提供了对环境的鲁棒性与可靠性,使用户能够规划路径并避开障碍物。
Jan, 2024
深度学习目标检测在帮助视力受损者避开障碍物方面是一种有效的方法,本文通过实现并评估七种不同的 YOLO 目标检测模型(YOLO-NAS,YOLOv8,YOLOv7,YOLOv6 和 YOLOv5)来分析这些模型在道路和人行道上常见物体的图像上的表现,并发现 YOLOv8 是最佳模型,其在包含 VOC、COCO 和 TT100K 数据集的 Obstacle 数据集上表现出 80% 的精确度和 68.2% 的召回率,尽管 YOLO-NAS 是最新的模型,在其他应用中表现更好,但对于障碍物检测任务来说并不理想。
利用光流线索指导的半监督分割方法解决铁路场景中多类障碍物检测问题,通过生成逼真的合成图像并利用光流作为先验知识来有效训练模型,实验证明了该方法的可行性和效果。
Jun, 2024
该研究论文提出了一种基于光流的移动物体检测框架,利用单应性矩阵在线构建光流背景模型,并设计了一个双模式判断机制来提高系统对复杂场景的自适 应性,实验证明该方法优于现有的方法,具有适应不同场景的优势。
Jul, 2018
本文提出了一种框架,该框架可以使用外部提示来引导光流网络,从而在已知或未知领域中实现更高的准确性。实验结果表明,我们的框架在模拟和实际条件下都具有很好的效果。
Sep, 2021
该研究提出了一种可穿戴辅助设备,可以帮助视障人士在陌生环境中安全快速地导航,并通过消音信号为用户提供正确的行走方向,同时通过深度学习技术对周围环境中的障碍进行分类和识别,有效地提高了用户的感知能力。
Apr, 2019
本文提出了一种基于深度学习的辅助系统,旨在提高视障人士的环境感知体验,通过 RGBD 数据和建立的语义地图预测行走指令、进行障碍物避让,在多种情境下得到了很好的实验效果并有效提高了视障人士的环境感知体验。
Aug, 2019
本文介绍了一种特定用于人物运动的光流算法,通过构建图像序列的数据库并使用卷积神经网络的方法进行人物运动光流估计,得到了比其他方式更为准确的结果,这一方法可应用于人物运动分析等领域。
Jun, 2018
我们提出了一种创新的混合方法,既利用深度学习方法又利用基于光流的传统方法来进行密集运动分割,而无需进行任何训练。