BriefGPT.xyz
Ask
alpha
关键词
sparse self-attention within windows (ssaw) layer
搜索结果 - 1
多元时间序列的双注意力网络分类
利用双重关注 (dual attention) 的方法,我们在本研究中探索了一种新型网络 (DA-Net),用于提取多元时间序列分类的局部和全局特征。DA-Net 由 Squeeze-Excitation Window Attention
→
PDF
10 months ago
Prev
Next