BriefGPT.xyz
Ask
alpha
关键词
self-attention regularization
搜索结果 - 2
双流注意力变换器用于下水道缺陷分类
我们提出了一种双流多尺度视觉转换器 (DS-MSHViT) 架构,用于高效下水道缺陷分类,并联训练了一个 RGB 分支和一个运动分支的单一网络,通过自注意力正则化来利用 RGB 和运动流的互补优势,以增强 RGB 的关注地图从而集中于相关输
→
PDF
8 months ago
ERNIE-SPARSE: 基于自注意力正则化的分层高效 Transformer 学习
提出 ERNIE-Sparse 模型,它包含两个不同的部分:分层稀疏 Transformer(Hierarchical Sparse Transformer,HST)和自注意力正则化(Self-Attention Regularizatio
→
PDF
2 years ago
Prev
Next