BriefGPT.xyz
Ask
alpha
关键词
multi-head self-attention dropping
搜索结果 - 1
ICCV
TransFER: 使用 Transformer 学习关系感知的面部表情表示
提出 TransFER 模型,在面部表情识别中使用多头自注意力且随机选择模块,有效地学习富含关系感知的局部表征,实验结果显示其性能优于现有方法。
PDF
3 years ago
Prev
Next