Feb, 2024
团结共识,共著失败!基于同时在 75 个数据集上进行预训练的时间序列表示学习
United We Pretrain, Divided We Fail! Representation Learning for Time Series by Pretraining on 75 Datasets at Once
Maurice Kraus, Felix Divo, David Steinmann, Devendra Singh Dhami, Kristian Kersting
TL;DR自我监督对比式预训练方法和插值方法在多个时间序列数据集上的学习表明,可以从多个时间序列数据集中学习,对于低数据情况下的微调具有优势。