Sep, 2020

MQTransformer:基于上下文依赖和反馈感知的多时域预测注意力模型

TL;DR本文提出了一种新颖的 Decoder-Encoder Attention 用于上下文对齐的神经预测方法,结合位置编码和基于自我注意的解码器方案,旨在改进当前最先进的前沿神经预测方法,并降低 MQ-Forecaster(Wen 等,2017)模型的过多预测变量。