BriefGPT.xyz
大模型
Ask
alpha
关键词
mtsmae
搜索结果 - 1
MTSMAE: 基于掩码的自编码器用于多元时间序列预测
该论文提出了一种新的基于 Masked Autoencoders (MAE) 的自监督预训练方法称为 MTSMAE,利用补丁嵌入的方法处理多元时间序列,实验证明,该方法的性能显著优于目前最好的方法。
PDF
2 years ago
Prev
Next