GiMeFive:面部情绪分类的可解释性方法
该文介绍了针对面部表情识别问题,提出了一种基于注意力卷积网络的深度学习方法,并采用可视化技术确定了识别不同情绪对应的重要面部区域,相比先前的模型在多个数据集上都取得了明显的改进。
Feb, 2019
我们开发了一个卷积神经网络来识别人类面部表情。我们将已有的卷积神经网络模型 fine-tune 到 CFEE 和 RaFD 数据集,测试准确率分别为 74.79% 和 95.71%。通过在一个数据集上训练模型,在另一个数据集上测试可以牵扯到泛化的结果,最广泛的实验中测试集的 top-1 准确率为 65.39%。
Aug, 2017
本文提出了一种由多个利用卷积神经网络和大规模人脸识别数据集进行训练得到的强大行业级人脸识别网络组成的集成模型,该模型对视频中的空间和音频特征进行捕获,从而提高情绪识别的准确性,并在不使用视觉时间信息的情况下,将测试集的最佳结果提高了约 1%,实现了 60.03%的分类准确度。
Nov, 2017
本研究提出了一种结合深度卷积神经网络(DCNN)和 Haar Cascade 深度学习架构的混合模型,用于将实时和数字面部图像分类到七种面部表情类别之一。实验结果表明,与其他模型相比,该架构在分类性能上具有显著优势,并且准确率高达 70%,执行时间短,为 2098.8 秒。
Jun, 2022
本研究探讨轻量级卷积神经网络的多任务学习,用于识别人脸和分类面部属性(年龄,性别,种族),并在没有距离边缘的剪裁人脸上进行训练,需要微调这些网络以预测面部表情;使用 MobileNet、EfficientNet 和 RexNet 架构提出了几种模型,并在 UTKFace 数据集上证明了它们接近最新的年龄、性别和种族识别结果,在 AffectNet 数据集的情感分类上也表现出色;此外,展示了将已训练的模型用作视频帧中面部区域的特征提取器,其识别精度比以前已知的情感分类挑战的单一模型高 4.5%。
Mar, 2021
本篇研究提出了在视频中进行情感识别的 3D 卷积神经网络方法,使用 3D Inception-ResNet 层及 LSTM 单元,从面部图像中提取空间关系和不同帧之间的时间关系,并利用面部关键点作为输入,该方法在四个公开数据库上的表现超过了现有最先进技术。
May, 2017
本文描述了我们在第五届 Emotion Recognition in the Wild(EmotiW 2017)小组级情感识别子挑战赛中使用的算法方法,其中我们使用了卷积神经网络来提取检测到的脸部的特征向量,而不是传统的预训练情感识别问题。最终,我们的管道中学习了一个随机森林集成分类器来预测情感分数,该集成分类器在实验研究中显示出与其他探索技术相比最低的错误率。
Sep, 2017
本文提出并实现了一个通用的卷积神经网络(CNN)构建框架,用于设计实时 CNN。我们通过创建一个实时视觉系统来验证我们的模型,在一个混合步骤中同时完成面部检测、性别分类和情感分类的任务。我们提供了训练过程设置的详细信息,并在标准基准集上进行了评估,报告了 IMDB 性别数据集中 96% 和 FER-2013 情感数据集中 66% 的准确性。此外,我们还介绍了最近的实时启用的引导反向传播可视化技术。引导反向传播揭示了权重变化的动态,并评估了学习到的特征。我们认为,仔细实施现代 CNN 架构、使用当前的正则化方法和可视化以前隐藏的特征对于缩小慢速性能和实时架构之间的差距是必要的。我们的系统通过在 RoboCup@Home 比赛中使用的 Care-O-bot 3 机器人上部署进行了验证。我们的所有代码、演示和预训练的架构都在我们的公共存储库中以开源许可证发布。
Oct, 2017