BriefGPT.xyz
Ask
alpha
关键词
cross-attention-only time series transformer (cats)
搜索结果 - 1
自注意力是否对时间序列预测有效?
我们介绍了一个新的架构,交叉注意力时间序列变换器(CATS),它通过消除自注意力并利用交叉注意力机制来重新思考传统 Transformer 框架,不仅提高长期预测精度,还减少参数和内存使用。大量对各种数据集进行的实验表明,我们的模型在最小均
→
PDF
a month ago
Prev
Next