通过观看电视学习面部表情
通过实验研究探究神经网络如何处理和储存面部表情数据,并将这些数据与人类产生的各种心理属性相联系,表明深度学习模型在理解人类情绪和认知过程方面具有潜力,非欧几里德空间视角下的认知产品或心理属性的多样化可视化解释不仅提供了对 AI 的可解释性的新见解,还推动了 AI 技术在心理学领域的应用和心理信息处理的新的理论理解。
Apr, 2024
本研究提出了一种基于深度学习和面部视频数据的情感检测方法,使用 Convolutional Neural Network 训练一个能够估计三维表情模型参数的模型,并结合情感分类器,能够高效准确地从动态图像中识别面部表情,且在基本情感和压力情感的识别任务中超过了其他方法。
May, 2020
使用卷积神经网络在遮住眼睛和眉毛的全脸图像中准确识别七种不同的情绪,通过对虚拟现实游戏中玩家情感数据的收集与分析,提高游戏玩法分析,帮助游戏开发者创建更具吸引力和沉浸感的游戏体验。
Dec, 2023
本文介绍了 EmotioNet 挑战的方法和结果,其中第一项挑战测试了当前计算机视觉算法在自动检测表情动作单元(AU)方面的能力,第二项挑战测试了算法在面部表情图像的情感分类方面的能力,研究表明当前机器学习算法在这两个任务中无法可靠地解决问题,计算机视觉算法在检测动作单元时的效果比检测情感分类时的效果要好。
Mar, 2017
本文采用机器学习中的深度学习模型,结合 FaceChannel 框架研究了不同图像条件对基于面部表情的情绪识别的影响,这对于确保机器人在不同环境下保持一致的识别水平非常重要。
Oct, 2022
最近的研究强调用户对与机器进行类似人的互动的偏好增长。因此,面部表情识别作为给社交机器人赋予识别用户情感状态的能力的一种方式变得重要。在本研究中,我们评估了深度学习方法的适用性,这些方法因其在该领域的出色表现而闻名,用于识别具有智力残疾的个体的面部表情,据我们所知,这方面的研究尚未进行。为实现这一目标,我们使用了十二个不同方法的卷积神经网络集合进行训练,其中包括没有具有智力残疾的个体的数据集合以及包含了这些个体的数据集合。我们对不同训练条件下各个模型的结果进行了分析,结合可解释的人工智能技术在表情识别期间进行的关键面部区域的全面分析,揭示了智力残疾个体之间以及具有智力残疾的个体之间面部表情的显著差异。显著的是,我们的研究结果通过用户特定的训练方法证明了对该人群中面部表情的可行性,这使得模型能够有效地处理每个用户独特的表达方式。
Jan, 2024
本文介绍了一种利用虚拟现实技术中红外监视器拍摄到的眼部图像,从而在遮挡部分面部的情况下,自动推断用户的表情,并生成动态的虚拟头像作为用户的表情代理。实验结果表明,该算法的准确度显示出性能优于人类评估者。
Jul, 2017
本研究提出了一种新的方法来在语音驱动的面部生成中呈现视觉情感表达,设计了一个端到端的语音驱动面部生成系统,可以在输入语音、单张面部图像和情感标签时呈现表情,在图像质量、音视频同步和视觉情感表达等方面表现出色,主观和客观的评估都证明了该系统的优越性。此外,还利用生成的视频进行了人类情感识别实验,结果表明在音频和视觉模态不匹配的情况下,人们对视觉模态的响应更为显著。
Aug, 2020