理解和建模任务与环境对驾驶员注视分配的影响
精确预测驾驶员的凝视是基于视觉的驾驶员监控和辅助系统的重要组成部分,本文介绍了一种使用 GPS 数据对任务和环境进行建模的驾驶员凝视预测模型 SCOUT+,并证明了其相对于底层模型和顶层模型 SCOUT 在两个数据集上的改进效果。
Apr, 2024
本文旨在预测驾驶员的注意力集中情况,提出了一种基于多分支深度架构的计算机视觉模型,集成了三种信息源:原始视频、动态和场景语义,并介绍了 DR (eye) VE,这是迄今为止最大的驾驶场景数据集,结果强调了跨驾驶员共享的注意力模式,可在人车交互和驾驶员注意力分析等多个应用方面受益。
May, 2017
该论文提出了一种基于场景语义和注视信息相结合的自动驾驶注意力预测方法 SAGE,并通过修改自动驾驶的关键预测参数,设计了一个完整的预测框架 SAGE-Net,实验证明 SAGE 在不增加计算量的情况下,可以优于现有技术 87.5% 的案例。
Nov, 2019
我们提出了一种使用安装在车辆挡风玻璃和仪表盘上的普通摄像头来估计驾驶员凝视点的新方法。该方法通过开发一种卷积网络来同时分析场景图像和驾驶员面部图像,其中包含一个相机校准模块,可以计算表示驾驶员和摄像头系统之间空间配置的嵌入向量,该模块改善了网络的性能并可以进行端到端的联合训练。我们还引入了一种大规模的驾驶数据集,其中包含了真实驾驶情景的图像以及驾驶员面部和凝视数据,对该数据集的实验表明,所提出的方法优于各种基准方法,均方误差为 29.69 像素,相对于场景摄像头的 $1280 {imes} 720$ 分辨率而言,误差较小。
Apr, 2024
该论文提出了一种自适应的方法来清洗现有的人类凝视数据集,并提出了一个健壮的卷积自我注意凝视预测模型,实验证明我们的清洗方法和模型能够显著提高 ADS 性能和泛化能力。
May, 2023
本文旨在全面回顾驾驶员凝视基础知识、估计驾驶员凝视的方法以及其在现实世界驾驶场景中的应用,包括了算法、数据集、驾驶行为等方面,并讨论了现有文献中的局限性、挑战和未来的研究方向。
Jul, 2023
提出一种新的驾驶员注意力数据收集协议并介绍了一个新的驾驶员注意力数据集 BDD-A,进一步提出了人工加权采样(HWS)方法来构建驾驶员注意力预测模型,该模型不仅表现出比现有模型更好的性能,而且还是基于常规驾驶过程中的实际数据预测的。
Nov, 2017
本文提出了一个新的基于驾驶员目光追踪和车祸注释的视频基准测试集(DADA-2000),涵盖了 54 种不同类型的车祸,可以更全面地预测即将发生的事故。
Apr, 2019
通过探索注意转移中的时间偏移模式(注意转换)来提出一种新的计算模型,它取决于自我操作任务,以在自然动态场景中推测视线, 并结合深度神经网络和进阶的注意转移和底层显著性预测,利用视线的时间上下文,能够显著优于其他预测方法。
Mar, 2018