使用遮蔽自编码器进行的测试时间训练
本文中,我们提出了测试时间训练的一般方法,通过将单个未标记的测试样本转化为自监督学习问题并在此基础上更新模型参数,从而改善预测模型在训练和测试数据来自不同分布时的性能,特别是在评估对分布的稳健性方面,我们的简单方法在各种图像分类基准测试中导致了改进。
Sep, 2019
使用数据驱动方法结合在线学习方法(包括使用自动标签任务的回归损失和使用隐式自编码器进行表示学习)来解决轨迹预测中的多个参与者和环境交互问题,并在各种跨数据集分布转移场景中验证了方法的有效性。
Mar, 2024
本研究提出了一种简单的神经网络自编码器模型,可以遵守自回归约束实现强大的生成模型,其输出结果可以被理解为一组条件概率,可以用于多种架构,包括深度架构,并通过实验证明其与现有的可计算分布估算器的表现相当竞争力,并且测试时速度显著更快,规模更大。
Feb, 2015
研究了 Masked Autoencoders 在视频方面的应用,支持在没有时空归纳偏差的情况下,使用随机遮挡进行自编码器学习,观察到高比例遮挡可提高速度和表现,可以成为无监督学习的方法。
May, 2022
提出了持续测试时间适应(CTTA),用于将源预训练模型迁移到不断变化的目标分布,以应对现实世界的动态变化。通过构建适应性分布遮罩自编码器(ADMA)来提取目标领域知识并缓解分布转移累积的问题,实验结果表明在分类和分割 CTTA 任务中达到了最先进的性能。
Dec, 2023
该篇论文提出了一种 Test-Time Self-Training(TeST)技术,通过使用学生 - 老师结构学习不变和强鲁棒性表示来适应新的分布,进而提高模型在分布变化的测试时期的适应性,其结果显示,与现代域自适应算法相比,使用 TeST 的模型在目标检测和图像分割上达到了最新的测试时间域适应算法的最优水平。
Sep, 2022
本文展示掩码自动编码器 (MAE) 是可扩展的自监督计算机视觉学习器,通过实现以两种核心设计为基础的 MAE 方法:一种不对遮罩令牌进行编码的编码器和一种从潜在表示和遮罩令牌中重建原始图像的轻量级解码器,并使用更高比例的保持训练图片完整性的遮罩令牌,同时能够提高训练精度和加速计算。本方法能够训练大型高容量模型,并 Transfer Learning 具有出色的性能。
Nov, 2021
本文研究了使用 VideoMAE 进行自主监督视频预训练 (SSVP) 的数据高效性问题,并通过适当的视频屏蔽达到了良好的表现,进而证明数据质量对 SSVP 更加重要。
Mar, 2022
利用 Meta Test-Time Training 的方式结合 Meta-learning 和 Self-supervised Learning,来使深度神经网络在测试时能够应对域漂移的问题,从而提高其在 CIFAR-10-Corrupted 图像分类基准测试中的表现。
Mar, 2021
利用注重对象的重建过程来指导复原能力的建议,通过在损失函数中利用场景的注意力图获取的注意力图,提供更多的重建相关对象的强调,从而激励模型学习更加注重对象的表示,同时通过改进的线性探测和 k-NN 分类在几个基准测试中展示出我们预训练模型具有更好的潜在表示能力,同时使 ViTs 对不同背景更加稳健。
Feb, 2024