一种记忆增强的多任务协作框架,用于无监督驾驶视频中的交通事故检测
本文提出了一种基于未监督学习的方法,通过预测交通参与者未来位置并监测三种不同策略的预测准确度和一致性来检测仪表板安装的摄像头视频中的交通事故。实验结果表明,该方法优于最先进的方法。
Mar, 2019
该研究介绍了一个名为 MOVAD 的智能汽车实时系统,它利用只能捕捉器固定摄像头拍摄的视频进行信息提取和到不同时间段的信息关联来及时响应异常情况。该系统包含视频分析技术和短期记忆和长期记忆两个部分,能够在 DoTA 数据集的测试中取得比目前同类技术高 2.81 的准确率。
Feb, 2023
交通事故检测与预测是一项棘手的交通安全问题,本文提出了一项对深度学习时代中视觉交通事故检测(Vision-TAD)和预测(Vision-TAA)的全面调查,探讨了每个研究样本的优劣,并提供了 31 个公开可用的基准和相关评估指标的关键评论,旨在为 Vision-TAD 和 Vision-TAA 任务带来新的见解和可能的趋势。
Aug, 2023
本论文提出了一种在交通监控应用中实现交通事故检测的高效框架,包括基于 YOLOv4 方法的准确物体检测、基于 Kalman 滤波器以及匈牙利算法的对象跟踪,以及轨迹冲突分析的事故检测,并且用于真实交通视频数据的实验结果证明了该方法的实时应用的可行性。
Aug, 2022
基于 TTHF 的交通异常检测方法通过视频和文本对齐,提供了一种新的视角;同时,通过在时间域中建模驾驶视频的高频部分,增强了驾驶场景的感知,并显著提高了交通异常的检测效果。
Jan, 2024
本研究对现有的事故检测技术进行了全面的探索研究,重点介绍了尾部碰撞、侧面碰撞和正面碰撞等不同类型的交通事故,并引入了适用于智慧城市交通监控系统的 I3D-CONVLSTM2D 模型架构,结合 RGB 帧和光流信息进行事故检测。实验分析验证了该方法的有效性,该模型在平均精度(Mean Average Precision,MAP)方面表现优异,达到了 87%。同时,本研究还详细阐述了数据不平衡在有限数据集、道路结构和交通场景方面带来的挑战,最终为基于视觉的事故检测系统在智慧城市基础设施中实时集成到边缘物联网设备提供了路径指引。
Oct, 2023
司机疲劳驾驶是交通事故的主要原因之一,通过引入多关注融合疲劳驾驶检测模型(MAF),可以显著提升分类性能,特别是在部分面部遮挡和低光照条件下,从而在提高算法整体稳健性方面发挥更大作用。通过在夜间和白天的光照条件下采集真实世界的数据集,我们进行了一系列综合实验,结果显示我们提出的模型达到了 96.8% 的司机疲劳检测准确率。
Dec, 2023
本研究提出了一个基于不确定性的事故预测模型,其中利用图卷积和循环神经网络进行关系特征学习,利用贝叶斯神经网络处理潜在关系表示的本质变异性,并使用新的 CCD 数据集验证了该模型在普通和新编译数据集上的表现优越性。
Aug, 2020
MM-AU 是一个多模态事故视频理解的新数据集,包含 11,727 个野外自视角事故视频,每个视频都有与其时间对齐的文本描述。我们注释了超过 2.23 百万个物体框和 58,650 个基于视频的事故原因对,涵盖了 58 个事故类别。MM-AU 支持各种事故理解任务,特别是多模态视频扩散,以理解安全驾驶的事故因果链。通过 MM-AU,我们提出了一种安全驾驶感知的 Abductive 事故视频理解框架 (AdVersa-SD)。AdVersa-SD 通过一种由 Abductive CLIP 模型驱动的对象中心视频扩散 (OAVD) 方法进行视频扩散。该模型通过对正常、几乎事故和事故帧与相应文本描述 (如事故原因、预防建议和事故类别) 的成对共现进行对比交互损失学习,以实现对原始帧背景内容进行修复的视频生成中强制实施因果区域学习,以找到特定事故的主要因果链。大量实验证实了 AdVersa-SD 的推理能力以及 OAVD 相对于最先进的扩散模型的优越性。此外,由于 AdVersa-SD 依赖于精确的物体和事故原因信息,我们还提供了仔细的物体检测和事故原因回答基准评估。
Mar, 2024
本文提出了一个基于卷积神经网络的两流网络结构,可实现交通视频数据中道路用户的实时检测,跟踪和接近事故检测。使用我们提出的交通接近事故数据集(TNAD)进行实验,该数据集涵盖了各种交通交互类型,并在 TNAD 数据集上表现出有竞争力的、定性和定量的高帧率性能。
Jan, 2019