人脸变换器用于识别
本文提出了一种名为 TransFace 的优越 FR 模型,其中使用了名为 DPAP 的面级数据增强策略和名为 EHSM 的困难样本挖掘策略,实验证明了其优异性能。
Aug, 2023
该研究提出了一种基于单一的 Swin Transformer 的多功能算法,用于同时进行人脸识别、面部表情识别、年龄估计和面部属性估计,并通过多层级通道注意力模块适应性地选择最佳级别和通道上的特征,以提高预测准确性、数据效率和训练速度。
Aug, 2023
基于卷积视觉变换器的框架通过全局信息和面部图像中的局部线索来改善人脸识别性能和抵抗领域转变的作用,在面部反欺诈和领域泛化等领域取得了显著的提升。
Jul, 2023
本文描述了一种新颖的人脸交换网络,使用 transformer 网络来学习源脸部与目标脸部之间高质量的语义感知对应,实现在交换后的脸部图像中同时保留源身份和目标属性。
Apr, 2023
本文提出了一种全新的脸部识别方法 —— 使用 Vision Transformer 作为架构进行培训,称为 fViT,并通过简单的网络预测面部标记点的坐标再进行后续处理,最终达到了在几个面部识别基准上的最佳准确度。
Nov, 2022
我们介绍了 FaceXformer,这是一个端到端的统一变换器模型,用于综合范围的面部分析任务,如面部解析、标志检测、头部姿势估计、属性识别以及年龄、性别、种族和标志点可见性的估计。我们的 FaceXformer 利用基于变换器的编码器 - 解码器架构,将每个任务视为可学习的标记,从而在单一框架内集成多个任务。此外,我们提出了一个参数高效的解码器 FaceX,它共同处理面部和任务标记,从而在不同任务之间学习通用和鲁棒的面部表示。根据我们的了解,这是首次使用变换器提出了一个能够处理所有这些面部分析任务的单一模型。我们对统一面部任务处理的有效骨干进行了全面分析,并评估了不同任务查询和它们之间的协同作用。我们在多个基准测试中进行了对比实验证实,与最先进的专用模型和之前的多任务模型相比,在数据集内和跨数据集评估中,我们的模型均表现出色。此外,我们的模型有效处理来自 “野外” 的图像,展示了它在八个不同任务上的鲁棒性和普适性,同时保持了每秒 37 帧的实时性能。
Mar, 2024
本文研究使用 Transformer 代替 CNN 进行图像分类,实现在计算资源少的情况下,取得比目前卷积网络更好的识别结果,从而在计算机视觉上取得突破。
Oct, 2020
本文介绍了一种针对视频领域的区域局部性 Transformer 架构,通过使用 Swin Transformer 设计来实现,同时利用预训练模型的威力,取得了行动识别和时间建模等广泛的视频识别基准的最新准确性。
Jun, 2021
本文提出一种新颖的、使用 Vision Transformers (ViTs) 在 patch 级别比较两个图像的方法,通过对 CASIA Webface 数据集上的 2M 对图像进行训练,在大样本外分布数据上与 DeepFace-EMD 的准确度相当,但推理速度是 DeepFace-EMD 的两倍以上。此外,通过人体研究,我们的模型在可视化交叉注意力方面显示出有希望的解释性。我们相信我们的工作可以激发更多在人脸识别中使用 ViTs 的探索。
Nov, 2023
本文研究深度学习架构 (CNNs 和 Transformers) 的演进,设计和开发了深度伪造检测模型,并在深度伪造数据集上进行了实验,取得了较高的准确率和 AUC,并分析了不同深度伪造数据集之间的关系。
Apr, 2023