BriefGPT.xyz
Ask
alpha
关键词
convolutional self-attention
搜索结果 - 2
具有增强自注意力的轻量级视觉 Transformer
本研究提出了 Lite Vision Transformer(LVT),一种新型的轻量级 transformer 网络,其中包含两种增强自注意力机制,以提高模型在移动部署中的性能表现,并在 ImageNet 识别、ADE20K 语义分割和
→
PDF
3 years ago
在时间序列预测中增强 Transformer 的局部性并打破内存瓶颈
本文提出使用 Transformer 解决时间序列预测问题,针对其点乘自注意力机制的局限性和内存瓶颈问题,先提出了卷积自注意力机制,再通过提出只有 O (L (logL)^2) 内存成本的 LogSparse Transformer 来解决
→
PDF
5 years ago
Prev
Next