edBB-Demo:面向在线教育平台的生物特征和行为分析
本文介绍了一种基于传感器和软件的远程教育学生监测平台,旨在通过获取生物特征和行为数据解决远程评估中学生监测的现有挑战,并提供了包含基本传感器和高级传感器数据的初始数据库,以帮助提高异常检测的能力。
Dec, 2019
本研究使用行为生物识别,包括触摸动态和手机移动,创建和评估了用户身份验证方案。使用两个公开数据集,采用 7 种机器学习算法进行评估,准确率高达 86%。
May, 2022
研究中使用计算机视觉技术检测在线学习过程中异常的头部姿态,并介绍了手机使用对学习过程的影响的研究。通过收集来自 120 位学习者在 MOOC 学习过程中的行为数据,研究聚焦于手机使用事件对行为和生理反应(特别是注意力、心率和冥想)的影响,并提出了一种通过摄像头图像来估计头部姿态事件以检测手机使用事件的方法。本研究的假设是,当学习者与手机交互时,头部姿态会发生显著变化,与学习者面对计算机时的典型行为形成对比。我们提出了一种半监督方法,用于检测学习者会话期间头部姿态与平均姿态的偏差,并对发现的头部姿态异常事件进行标记,敏感度超过 90%。
May, 2024
使用动物背负的传感器记录生态和环境数据,为了比较不同的机器学习技术,建立了大型公开数据集和评估系统 Bio-logger Ethogram Benchmark(BEBE),执行行为注释和标准建模任务,评估了 10 种不同的机器学习方法,并识别出未来研究中需要解决的关键挑战。
May, 2023
本文介绍了 BBSI 的方法和结果,BBSI 是对连续社交互动中复杂身体行为的第一个注释集,其包含了 15 个不同的身体语言类别,并采用四个空间 - 时间特征变体作为 PDAN 的输入来自动检测这些行为,结果表明这是一个困难的任务,但有很大改进的空间。
Jul, 2022
我们研究了一个关注在进行日常活动时进行人员识别的新问题。由于时空复杂性和服装颜色、背景等外貌偏差的存在,从 RGB 视频中学习生物特征具有挑战性。我们提出了一个新的框架 ABNet,通过对生物特征和非生物特征进行解耦,从而在日常活动中实现有效的人员识别。ABNet 依赖于一个无偏的教师,通过 RGB 视频来学习生物特征,并通过生物特征扭曲显式地解耦非生物特征。此外,ABNet 还利用活动先验进行生物识别,这是通过联合生物特征和活动学习实现的。我们在五个不同的数据集上对所提方法进行了全面评估,这些数据集基于现有的活动识别基准。此外,我们还与现有的人员识别方法进行了广泛比较,并证明了 ABNet 在基于活动的生物识别方面在所有五个数据集上的有效性。代码和数据集可在此处获取:https://github.com/sacrcv/Activity-Biometrics/
Mar, 2024
利用深度神经网络研究了人类多模态行为识别算法,通过整合不同的深度神经网络对不同模态的视频信息进行适应以成功识别多个模态的行为,利用微软 Kinect 开发的多个摄像头采集传统图像并提取运动特征,将两种方法识别出的行为特征综合起来以实现行为的准确识别与分类,实验结果表明该算法在识别行为和检测视频素材中的行人行为的准确度上有显著提升。
May, 2024
这篇论文介绍了一个名为 mEBAL 的多模态数据库,用于眨眼检测和注意力水平估计,其改进了现有数据库在采集传感器和样本方面的限制,并基于学生眨眼频率估计其注意力水平,初步实验表明使用卷积神经网络在面部图像中眨眼检测的效果比较好。
Jun, 2020
本研究利用一个大型数据库训练出深度学习技术的特征提取器,结合多种单、多阶段及多种导联心电图实验,实现了 ECG 生物识别技术的精细分析及比较,并通过多个公共数据库的验证,进一步优化了模型,提出了行之有效的改进建议。
Apr, 2022
本文提出了一种新技术 DEEPSERVICE 来识别移动用户,该技术基于用户的击键信息进行识别,准确率高达 93%以上,并且只需不到 1 毫秒的时间。
Nov, 2017