BriefGPT.xyz
Ask
alpha
关键词
transformer-based backbones
搜索结果 - 2
SeMask: 用于语义分割的语义掩蔽变形器
本文提出了 SeMask 框架,将语义信息嵌入预训练分层 Transformer 模块的编码器中以提高模型性能,并使用轻量级语义解码器进行训练。实验结果表明,嵌入语义先验可以显著提高模型效果,并且与 Swin Transformer 和 M
→
PDF
3 years ago
CVPR
探究用于时序动作定位的更强特征
本文研究了时域动作定位的方法,发现基于变压器的方法可以实现更好的分类性能,但不能生成准确的动作提案,最后通过以较高的帧分辨率提取特征来提高时域动作定位的性能,最终在 CVPR2021HACS 挑战中取得了第一名。
PDF
3 years ago
Prev
Next