FaceFormer:基于 Transformer 的尺度感知盲人脸部修复
提出了一种基于 Transformer 的盲目人脸修复方法 BFRC; 该方法在处理长距离依赖关系方面较传统方法更有效,能够重建保留有身份特征的细节丰富的图像。
Feb, 2024
该研究提出了一种名为 RestoreFormer 的方法,通过完整的空间注意力来建模上下文信息,从而实现从未知降级中恢复高质量人脸图像,并超越了之前的工作。
Jan, 2022
提出了一种基于 Transformer 的自回归模型,称为 FaceFormer,用于声控 3D 面部动画。该模型能够对长时间音频上下文进行编码,并自回归预测一系列动画 3D 面网格。通过自监督预训练语音表示,使得该模型能够成功解决数据稀缺问题。同时,设计了两种有偏的注意机制,并进行为这个特定任务进行优化。大量实验证明,该方法优于现有的最先进技术。
Dec, 2021
提出一种基于 ScaleFormer 的新型骨干网络,其中包含针对各个尺度的内部转换器,以在每个尺度上提取局部 - 全局提示,并设计了空间感知的跨尺度变换器,以相互作用多个尺度的共识区域,从而突出跨度依赖性并解决复杂的尺度变化。
Jul, 2022
提出了 RestoreFormer ++,它引入了全空间关注机制来建模上下文信息和先验知识的相互作用,并探索了一个扩展降级模型,以帮助生成更逼真的退化脸部图像以减轻从合成到真实场景的差距。大量实验证实,RestoreFormer ++ 在合成和真实世界数据集上都优于现有算法。
Aug, 2023
ResFormer 框架通过多分辨率训练方法和全局 - 局部位置嵌入策略,在图像分类、目标检测、语义分割和视频动作识别等领域取得了较好的结果。
Dec, 2022
我们介绍了 FaceXformer,这是一个端到端的统一变换器模型,用于综合范围的面部分析任务,如面部解析、标志检测、头部姿势估计、属性识别以及年龄、性别、种族和标志点可见性的估计。我们的 FaceXformer 利用基于变换器的编码器 - 解码器架构,将每个任务视为可学习的标记,从而在单一框架内集成多个任务。此外,我们提出了一个参数高效的解码器 FaceX,它共同处理面部和任务标记,从而在不同任务之间学习通用和鲁棒的面部表示。根据我们的了解,这是首次使用变换器提出了一个能够处理所有这些面部分析任务的单一模型。我们对统一面部任务处理的有效骨干进行了全面分析,并评估了不同任务查询和它们之间的协同作用。我们在多个基准测试中进行了对比实验证实,与最先进的专用模型和之前的多任务模型相比,在数据集内和跨数据集评估中,我们的模型均表现出色。此外,我们的模型有效处理来自 “野外” 的图像,展示了它在八个不同任务上的鲁棒性和普适性,同时保持了每秒 37 帧的实时性能。
Mar, 2024
本研究针对盲目面部修复这一高度不适定问题,通过使用代码预测任务作为修复映射和生成高质量面部的方法,提出了一种名为 CodeFormer 的转换器预测网络,并设计了一个可控的特征转换模块,以增强方法对不同程度降解的适应性。实验结果表明,CodeFormer 在质量和保真度方面均优于现有技术,并对合成和真实情况下的数据集进行了全面验证验证了我们的方法的有效性。
Jun, 2022
本文介绍了 Uformer - 一种基于 Transformer 的高效图像恢复架构,在其中构建了使用 Transformer 块的分层编码器 - 解码器网络。使用局部增强窗口 (LeWin) Transformer 块和多尺度恢复调制器,Uformer 具有高效捕获局部和全局图像依赖性的能力,可用于多种图像恢复任务,并在实验证明与最先进的算法相比具有卓越的性能。
Jun, 2021
本论文介绍了 PartialFormer—— 一种参数有效的 Transformer 架构,利用多个较小的前馈神经网络来减少参数和计算量,同时保持重要的隐藏维度,并通过一个多头注意力系统实现有效的协同工作。还介绍了一种定制的头缩放策略和改进 PartialFormer 深度扩展的注意力计算方法,对 9 个翻译任务和 1 个抽象摘要任务的大量实验验证了 PartialFormer 方法的有效性。
Oct, 2023