BriefGPT.xyz
Ask
alpha
关键词
local-global interaction transformer
搜索结果 - 1
MAE-DFER:自监督动态面部表情识别的高效掩模自编码器
MAE-DFER 是一种新型的自监督方法,它通过大规模无标签数据的自监督预训练来推动 DFER 的发展,同时采用效率高的局部全局交互 Transformer 编码器,以及明确的面部动作建模,可以学习到强大的动态面部表征。
PDF
a year ago
Prev
Next