带有掩码自编码器的预训练天气模型用于多变量天气预报
通过引入 Forecast-MAE,一种专为自我监督学习运动预测任务设计的掩模自编码器框架的扩展,利用标准 Transformer 块以及最小的内在偏差,我们在具有挑战性的 Argoverse 2 运动预测基准测试上进行的实验表明,Forecast-MAE 取得了与依赖于监督学习和复杂设计的最先进方法竞争性的性能,并且明显优于以前的自我监督学习方法。
Aug, 2023
该论文提出了一种新的基于 Masked Autoencoders (MAE) 的自监督预训练方法称为 MTSMAE,利用补丁嵌入的方法处理多元时间序列,实验证明,该方法的性能显著优于目前最好的方法。
Oct, 2022
通过使用掩码自编码器进行预训练,我们提出了一种新颖的框架 STD-MAE,用于准确预测多变量交通流时间序列,该框架能够学习和编码复杂的时空依赖关系,并通过隐含表示增强下游时空交通预测模型的能力。
Dec, 2023
在户外点云分割中,基于转换器等先进网络的建模能力受制于标注数据的稀缺性。为了更好地利用点云序列中蕴含的时间信息,本文提出了一种有效的预训练策略,即时序遮蔽自动编码器 (Temporal Masked AutoEncoders, T-MAE),通过输入与时间相关的相邻帧并学习时间依赖关系。T-MAE 预训练策略结合了 SiamWCA 骨干网络,其中包含了孪生编码器和基于窗口的交叉注意力模块 (window-based cross-attention, WCA),用于接收两帧输入。此外,为了提高目标对象的理解能力,时间建模还作为一种稳健且天然的数据增强方法,在同一对象的不同帧之间考虑自车运动改变的照明角度。通过使用遥远的历史帧而非连续帧,可以更加成本有效且强大。在自监督学习方法中,利用 T-MAE 预训练策略在 Waymo 数据集上实现了最佳性能。通过全面实验验证了本提案的所有组成部分。在接受后,源代码将会公开。
Dec, 2023
本文提出了一种基于 Transformer 的语言模型 ——VarMAE,通过上下文不确定性学习模块,将限定的语料库转化为平滑的潜在分布,从而为特定领域提供多样性和良好形式的上下文表示,实验证明 VarMAE 在科学和金融领域的 NLU 任务中,可以高效地适应有限资源的新领域。
Nov, 2022
通过使用遮蔽自动编码器(MAE)的卫星图像的预训练框架 SatMAE,我们结合时间嵌入和分组打包多光谱数据以提高预训练能力,进一步提高基准数据集上的监督学习性能(最高可达 7%),并在后续的遥感分类任务中表现出强大的转移学习能力(最高可达 14%)。
Jul, 2022
该研究提出了一种基于空间 - 时间蒙面自编码器(STMAE)的多元时间序列(MTS)预测框架,利用蒙面自编码器来增强空间 - 时间基线模型的性能,并通过在多个 MTS 基准上进行广泛实验来证明其在提高 MTS 预测能力方面的潜力。
Sep, 2023
在本文中,我们提出了 EWMoE 模型,它是一种能够准确预测全球天气的有效模型,它只需要较少的训练数据和计算资源,并利用 Meteorology-specific embedding、核心 Mixture-of-Experts (MoE) 层和两个特定的损失函数来提高预测准确性。通过对 ERA5 数据集进行了评估,并仅使用了两年的训练数据,我们进行了大量实验证明,EWMoE 在所有预测时间上均表现优于 FourCastNet 和 ClimaX 等当前模型,在异常相关系数(ACC)和均方根误差(RMSE)等评估指标上与最先进的 Pangu-Weather 模型具有竞争力。此外,消融实验结果表明,在天气预测中应用 MoE 架构可以显著提高准确性和资源效率。
May, 2024
提出了一种新的基于混合的聚类条件专家(MoCE)的 MAE 预训练范式,为不同的下游任务提供定制化的预训练模型,通过使用聚类条件门将每个专家仅与语义相关的图像进行训练,从而克服了 MAE 可扩展性中的负迁移问题。
Feb, 2024
本研究提出一种新的基于 Masked Auto-Encoder 的检索导向的预训练模型 RetroMAE,通过三个关键设计,包括污染输入、不对称模型结构和不对称的遮盖比率,取得了令人满意的实验结果,大幅提高了在 BEIR 和 MS MARCO 等检索基准测试中的性能表现。
May, 2022