UniTime:跨领域时序预测的语言增强统一模型
基于深度学习的基础模型正在广泛应用于各个领域,而 UNITS 模型以其在时间序列数据上的卓越表现和多领域数据集上的优良性能,为统一的任务规范提供了支持。
Feb, 2024
UniCL 引入了一种通用的和可扩展的对比学习框架,用于预训练时间序列基础模型,跨领域数据集验证了 UniCL 在各个领域的高泛化性能。
May, 2024
我们提出了基于掩码编码器的通用时间序列预测变形器 Moirai,用于解决传统上仅限于一个数据集一个模型的深度学习时间序列预测框架的限制,利用大规模预先训练模型的革命性影响。通过在超过九个领域中提供的超过 270 亿次观测的大规模开放时间序列存档(LOTSA)上进行训练,Moirai 作为零 - shot 预测器实现了具有竞争力或更好的性能。
Feb, 2024
通过 CrossTimeNet 提出一种新型的跨领域自监督学习框架,利用时间序列分词模块,从各个领域学习可转移的知识,并且以预训练语言模型作为编码器网络的初始化,取得优于以往工作的卓越性能。
Mar, 2024
在跨领域模型压缩方面,我们提出了一种新颖的端到端框架,称为 Universal and joint knowledge distillation (UNI-KD),通过对抗学习方案将源域和目标域之间的通用特征级知识和共享的对数级知识从教师模型传递给学生模型,实现了模型的压缩。在四个时间序列数据集上进行的广泛实验结果表明,我们提出的方法优于最先进的基准模型。
Jul, 2023
UniST 是一个通用模型,通过对多样的时空数据特征的灵活性、精心设计的掩模策略以及时空知识引导的提示,实现对城市时空预测的强大泛化能力,15 个城市和 6 个领域的广泛实验证明了 UniST 在提升最先进预测性能方面的普适性,特别是在少样本和零样本情况下。
Feb, 2024
将多个不同动态和领域的时间序列分割为片段作为输入,我们提出了一种新颖的模型 LPTM 来进行预训练,自动识别最佳的数据集特定分段策略,并在多个不同领域的时间序列分析任务中实现达到甚至超过领域特定最先进模型的性能,并且数据和计算效率明显提高,使用的数据量减少了 40%,训练时间减少了 50%。
Nov, 2023
通过使用预训练语言模型,本研究提出了 InstructTime,将时间序列分类重塑为学习生成范式,并将任务特定指令和原始时间序列作为多模态输入,通过文本表示标签信息,实现了在时间序列分类中的卓越性能和通用基础模型的潜力。
Mar, 2024
通过利用大型语言模型,研究利用自回归时间序列预测模型(AutoTimes)处理时间序列数据,该模型利用基于语言建模学习的通用令牌转换,具备灵活的系列长度和较高的性能。
Feb, 2024
提出了一种基于预训练模型的联邦时间序列预测模型 (Time-FFM),通过将时间序列转化为文本标记的形式来进行时间序列推理,并采用个性化联邦训练策略,取得了比现有方法更好的性能,有望实现有效的少样本和零样本预测。
May, 2024