虚拟现实游戏中的面部情感识别
本文介绍了一种利用虚拟现实技术中红外监视器拍摄到的眼部图像,从而在遮挡部分面部的情况下,自动推断用户的表情,并生成动态的虚拟头像作为用户的表情代理。实验结果表明,该算法的准确度显示出性能优于人类评估者。
Jul, 2017
本文提出了一个基于几何模型的方法,在虚拟现实场景下戴着头戴式 VR 耳机困难的面部表情识别问题,在 FER + 和 RAF-DB 数据集上使用迁移学习方法,并在根据佩戴一款普通 VR 设备所导致的实际遮挡情况修改的基准数据集上展示了令人满意的识别结果。
Aug, 2020
本研究提出了一种结合深度卷积神经网络(DCNN)和 Haar Cascade 深度学习架构的混合模型,用于将实时和数字面部图像分类到七种面部表情类别之一。实验结果表明,与其他模型相比,该架构在分类性能上具有显著优势,并且准确率高达 70%,执行时间短,为 2098.8 秒。
Jun, 2022
使用瞳孔测量的虚拟现实情绪识别方法,通过分析虚拟现实头戴设备对视觉和听觉刺激的瞳孔直径响应,从时域、频域和时频域提取关键特征并利用特征选择获取最重要的特征,再应用集成学习技术中的梯度提升模型,通过特征工程将准确率从 84.9% 提升至 98.8%,该研究为 Thelxino"e 框架作出了显著贡献,旨在通过整合多个传感器数据实现更真实和情感共鸣的触感交互,研究结果为进一步发展沉浸式交互虚拟现实环境以及虚拟触觉技术打开了新的可能性。
Mar, 2024
该文介绍了针对面部表情识别问题,提出了一种基于注意力卷积网络的深度学习方法,并采用可视化技术确定了识别不同情绪对应的重要面部区域,相比先前的模型在多个数据集上都取得了明显的改进。
Feb, 2019
本研究提出了一种基于深度学习和面部视频数据的情感检测方法,使用 Convolutional Neural Network 训练一个能够估计三维表情模型参数的模型,并结合情感分类器,能够高效准确地从动态图像中识别面部表情,且在基本情感和压力情感的识别任务中超过了其他方法。
May, 2020
本研究针对实时面部表情识别领域的数据集问题,创建了包含约 24,000 张标记为五种基本情绪的 3RL 数据集,并在该数据集上使用 SVM 和 CNN 算法进行比较和评估,结果显示 CNN 算法在 3RL 数据集上具有显著的泛化能力提高,达到了 91.4% 的准确率。
Apr, 2023
本文介绍了 EmotioNet 挑战的方法和结果,其中第一项挑战测试了当前计算机视觉算法在自动检测表情动作单元(AU)方面的能力,第二项挑战测试了算法在面部表情图像的情感分类方面的能力,研究表明当前机器学习算法在这两个任务中无法可靠地解决问题,计算机视觉算法在检测动作单元时的效果比检测情感分类时的效果要好。
Mar, 2017