一种基于时空注意力的学生课堂行为检测方法
利用深度学习方法自动检测学生的课堂行为是分析他们的课堂表现和提高教学效果的一种有前途的方法。为了解决公开可用的学生行为时空数据集缺乏以及手动标注这类数据集的高成本问题,我们提出了一种通过图像数据集来扩展学生课堂行为数据集的方法(SCB-ST-Dataset4)。该数据集包括了 754,094 张图像和 25,670 个标签,侧重于三种行为:举手,阅读和书写。我们提出的方法可以快速生成时空行为数据集,无需进行注释。此外,我们还提出了一种行为相似度指数(BSI)来探索行为的相似性。我们使用 YOLOv5、YOLOv7、YOLOv8 和 SlowFast 算法评估了数据集,达到了 82.3% 的平均精度。实验证明了我们方法的有效性。这个数据集为学生行为检测的未来研究提供了牢固的基础,有可能推动该领域的进展。SCB-ST-Dataset4 可在此链接下载:https://URL
Oct, 2023
本文中,我们提出了一种新的空间 - 时间注意力(STA)方法,用于解决视频中的大规模人员重新识别任务,该方法通过在时空维度上充分利用那些具有区分性的目标人物部分来生成鲁棒的剪辑级特征表示,使用该方法可以很好地解决基于视频的人员重新识别的挑战性问题,如姿势变化和部分遮挡。
Nov, 2018
提出了一种基于 CNN 的时空注意力(CSTA)方法,将视频的每个帧的特征堆叠起来形成类似图像的帧表示,并应用 2D CNN 对这些帧特征进行处理,实现对关键属性的学习和视觉重要性的捕捉,在 SumMe 和 TVSum 等数据集上实验证明了该方法在减少计算量的同时取得了最先进的性能。
May, 2024
本论文提出了一种适用于视频分类的两流协作学习方法,采用空间 - 时间注意力模型实现了针对视频中静态和动态信息的协同学习,以提取出区分度更强的特征向量,实验结果表明,该方法在各项性能指标上均优于其他 10 多种最先进的方法。
Nov, 2017
该研究提出了基于 YOLOv7-BRA 的学生课堂行为检测系统,通过构建 SCB 数据集并添加 biformer attention module 改进了检测精度,取得了 87.1% 的 [email protected],并可下载使用该数据集。
May, 2023
本文提出了一种名为 LSTA 的机制,向注意力平滑地跟踪视频序列中的动态空间相关部分的特征,有效提高了两流架构的自我中心活动识别性能,并且在四项标准测评中取得了最佳表现。
Nov, 2018
本技术报告提出了一种基于引导注意力机制的解决方案来解决 EGO4D 短期预测挑战,该解决方案结合了物体检测和从视频剪辑中提取的时空特征,增强了运动和上下文信息,并进一步解码物体中心和运动中心的信息以解决 EGO4D 短期对象交互预测挑战。我们在快速网络上应用引导关注力,构建我们的模型,该模型在验证集上获得了更好的性能,并在 EGO4D 短期对象交互预测挑战的测试集上取得了最佳成绩。
May, 2023
本文提出了一种自动检测学生危险行为的方法,将长视频的行为识别转化为物体检测任务,结合多尺度体特征和基于关键点的姿态特征,实现了 71.0% 的平均精度(mAP)和约 11 FPS 的高效准确性。
Feb, 2022
本研究提出了基于改进的 YOLOv7 的学生课堂行为检测方法,利用 SCB 数据集(包括手举、阅读和书写三种行为),并结合 biformer attention module 和 Wise-IoU 来提高检测准确率,在 SCB-Dataset 上实验结果表明其平均精度为 79%,比以前的结果提高了 1.8%。
Jun, 2023