通过外周血流估计基于视频的共情激动评估
本文提出了一种多模态方法,结合分析面部运动和多个外部生理信号,通过考虑个体化休息动态来解码正负情感体验。通过构建人体特征循环网络,解码个体面部运动和生理数据的动态耦合关系,并在其基础上训练推理模型,将个体的情感体验进行预测和验证。
Nov, 2018
该研究提出了一种基于图像的非接触式生理测量工具箱,其中实现了许多最常用的计算方法,该工具箱能够消除接触式传感器的需求,从而实现空间和同时测量,并可促进非接触式生理感测方法的发展。
Jan, 2019
本文介绍了“远程生理信号感知”的第一项挑战,提供了基准数据库进行面部视频的平均心率测量的评估,并提供前几解决方案以供参考,为这一主题及挑战的未来方向提供了参考。
Mar, 2020
本文提出了一种基于transformer的架构PhysFormer,该架构可以增强远程光电容积描记术(rPPG)的表示,通过进行标签分布学习和课程学习来提供精细的监督,并针对四个基准数据集进行了全面实验,证明了它的优越性能。
Nov, 2021
本研究综合评估了文献中存在的重要主观和客观人体应激检测技术。特别是,使用可穿戴传感器和非穿戴传感器获得数据的心理、生理、物理和行为测量方法被详细研究,从而为未来的研究提供参考建议,利用人工智能技术实现有效检测人类应激状态。
Feb, 2022
视频远程生理测量是利用面部视频测量血容量变化信号,也称为远程光电容抗(PRP)。本文提出了一种名为Contrast-Phys+的方法,可以在无监督和弱监督设置下进行训练。我们使用3D卷积神经网络模型来生成多个时空PRP信号,并将PRP的先验知识纳入对比损失函数中。我们进一步将GT信号纳入对比学习,以适应偏向性或错位标签。对比损失鼓励来自同一视频的PRP/GT信号进行分组,并将来自不同视频的信号分开。我们在包括RGB和近红外视频的五个公开数据集上评估我们的方法。即使在部分可用或错位的GT信号或没有标签的情况下,Contrast-Phys+也优于最先进的有监督方法。此外,我们还强调了我们的方法在计算效率、噪声鲁棒性和泛化性方面的优势。
Sep, 2023
通过多模态数据分析和基于最先进的传感器技术(如眼动跟踪和面部行为编码系统)的数据验证,教育研究人员可以研究多方面的学习和问题解决过程,以及改善教育经验。本研究旨在调查两种连续传感器流(瞳孔直径作为认知负荷指标和基于深度学习的面部行为编码系统作为情绪激活指标)之间的相关性,并分析情绪激活和瞳孔直径数据之间的时间延迟。结果显示情绪激活和瞳孔直径数据之间存在负相关,相关性仅在高情绪激活阶段为负相关,而在中等或低情绪激活阶段存在正相关但不显著。未来研究应考虑情绪调节策略和情感价值。
Mar, 2024
本文提出了一种利用远程光电容积图术(rPPG)任务中的显性和隐性先验知识的新框架,通过系统分析不同领域的噪声源,并将这些先验知识纳入网络进行训练,同时利用两个分支网络通过隐式标签相关性去除噪声并提取生理特征分布,我们的实验证明,该方法不仅在RGB跨数据集评估上胜过现有方法,而且能够很好地从RGB数据集泛化到NIR数据集。
Mar, 2024
远程摄像测量血容量脉搏通过光容积脉搏图(rPPG)是一种可伸缩、低成本、易于获取心血管信息的引人注目的技术。我们使用最新发布的同步接触式PPG和面部视频测量的独特数据集,对训练面部视频rPPG模型时是否使用来自身体其他部位的接触式测量数据进行优化进行了精确和定量的研究,结果显示,使用额头PPG信号相较于手指PPG信号,可以获得高达40%的均方误差降低,模型更好地学习了地面真实PPG信号的形态。然而,从手指PPG训练的模型仍然能很好地学习到主导频率(即心率)的特征。
Mar, 2024
使用无监督的远程光电容积脉搏图 (rPPG) 技术,结合行为特征,有效地测量在线团体会议中的参与度,通过使用仅心率变异性 (HRV) 特征可实现 94% 的准确性,结合行为线索后可提高至 96% 的准确性。
Apr, 2024