使用 RGB-D 传感器进行驾驶员分心检测和识别
通过使用基于视觉和基于机器学习的方法,同时检测疲劳和注意力分散的行为,以提高智能车辆系统的驾驶行为监测能力并获得更准确和时间更短的结果。
Jan, 2024
本文介绍了司机监控数据集 (Driver Monitoring Dataset) 和 dBehaviourMD 数据集,并使用其训练一个高效、实时、CPU 平台可运行的司机行为识别系统,该系统对于实时反应和精度都有着较好的表现。
Aug, 2020
我们提出了一种使用安装在车辆挡风玻璃和仪表盘上的普通摄像头来估计驾驶员凝视点的新方法。该方法通过开发一种卷积网络来同时分析场景图像和驾驶员面部图像,其中包含一个相机校准模块,可以计算表示驾驶员和摄像头系统之间空间配置的嵌入向量,该模块改善了网络的性能并可以进行端到端的联合训练。我们还引入了一种大规模的驾驶数据集,其中包含了真实驾驶情景的图像以及驾驶员面部和凝视数据,对该数据集的实验表明,所提出的方法优于各种基准方法,均方误差为 29.69 像素,相对于场景摄像头的 $1280 {imes} 720$ 分辨率而言,误差较小。
Apr, 2024
研究利用深度学习和卷积神经网络进行驾驶员分心检测,提供了一个包含更多分心姿态的公共数据集,并提出了一种可靠的基因加权集成方法,可以在现实环境中实现 84.64%分类准确率。
Jan, 2019
本文旨在预测驾驶员的注意力集中情况,提出了一种基于多分支深度架构的计算机视觉模型,集成了三种信息源:原始视频、动态和场景语义,并介绍了 DR (eye) VE,这是迄今为止最大的驾驶场景数据集,结果强调了跨驾驶员共享的注意力模式,可在人车交互和驾驶员注意力分析等多个应用方面受益。
May, 2017
司机疲劳驾驶是交通事故的主要原因之一,通过引入多关注融合疲劳驾驶检测模型(MAF),可以显著提升分类性能,特别是在部分面部遮挡和低光照条件下,从而在提高算法整体稳健性方面发挥更大作用。通过在夜间和白天的光照条件下采集真实世界的数据集,我们进行了一系列综合实验,结果显示我们提出的模型达到了 96.8% 的司机疲劳检测准确率。
Dec, 2023
提出了一种基于 CLIP 的驾驶员活动识别方法,该方法可以从自然驾驶图像和视频中识别驾驶员分心行为,并具有零样本迁移和面向任务的微调的特点。
Jun, 2023
这篇论文介绍了一种利用红外摄像机和车辆感知系统的双源方法,以便根据驾驶员的警觉程度评估其操作安全性,并在需要时进行干预,从而为 ADAS 和 AV 的整体安全和效率做出贡献。
Oct, 2023
近年来,先进驾驶辅助系统(ADAS)的科学进展在提高驾驶整体安全性方面扮演了关键角色。ADAS 技术能够主动控制车辆,以预防潜在的危险情况。研究人员关注的一个重要方面是分析驾驶员的注意力水平,因为最近的报告确认了由于困倦或注意力不集中导致的事故数量不断增加。为了解决这个问题,各种研究提出了通过监测驾驶员的生理状态来实现,因为自主神经系统(ANS)与注意力水平之间存在着确立的联系。为了进行我们的研究,我们设计了一种创新的生物传感器,包括近红外 LED 发射器和光电二极管,具体来说是一种硅光电倍增器装置。这使我们能够通过分析相关的光电容抗(PPG)信号评估驾驶员的生理状态。此外,我们开发了一种嵌入式时域超滤波技术,并结合了一种 1D 时域卷积架构,该架构中嵌入了渐进延展设置。这个集成系统能够实时分类驾驶员的困意,获得 96% 左右的显著准确度水平。
Jul, 2023