Meta-TTT:一种用于测试时训练的元学习最小最大框架
本篇研究提出了基于测试熵最小化(TENT)的完全测试时间自适应模型,通过优化其预测熵来提高分类性能,该方法在多个数据集上均取得了最先进的成果。
Jun, 2020
利用 Meta Test-Time Training 的方式结合 Meta-learning 和 Self-supervised Learning,来使深度神经网络在测试时能够应对域漂移的问题,从而提高其在 CIFAR-10-Corrupted 图像分类基准测试中的表现。
Mar, 2021
该论文提出了一种利用单个测试样本进行跨域泛化模型训练的元学习方法,将单个测试样本的自适应变形建模为一种变分贝叶斯推断问题,从而在无需额外数据的情况下实现了对每个测试样本的自动调整,并在多个领域泛化基准测试中取得了至少与现有最先进方法相当甚至更好的性能。
Feb, 2022
本文提出一种用于数据有效且准确实现目标领域适应的测试时适应问题解决方案(Data-efficient Prompt Tuning,DePT),其使用镜像学习方式将交互式提示信息细化到视觉Transformer模型中,在测试时自适应调整模型引用的提示以提升模型对目标域的表示,且具有适用于许多测试适应问题的能力。
Oct, 2022
PETAL是一种基于概率视角和部分数据相关先验的测试时间自适应方法,利用Fisher信息矩阵的数据驱动模型参数重置机制应对非平稳目标领域转移,实验结果表明PETAL在多个基准测试数据集中表现出更好的预测性能和不确定性指标。
Dec, 2022
通过在测试阶段将源域模型适应到测试数据,测试时间适应旨在应对未见过的损坏并证明其成功。然而,在更具挑战性的真实场景下,这些尝试可能会失败。现有的作品主要考虑了非独立同分布的真实世界测试时间适应和持续的域漂移。在这项工作中,我们首先用全局类别不平衡的测试集对现有的真实世界TTA协议进行补充。我们证明将所有设置结合起来对现有方法提出了新的挑战。我们认为现有最先进的方法的失败首先是由于在不平衡的测试数据上不加选择地适应归一化层引起的。为了解决这个缺点,我们提出了一个平衡的batchnorm层,用于在推理阶段替换正常的batchnorm。新的batchnorm层能够适应而不偏向多数类别。我们受到自我训练(ST)在学习无标签数据中的成功启发,并将ST用于测试时间适应。然而,单独使用ST容易出现过适应,这是持续域漂移下性能不佳的原因。因此,我们提出通过使用锚定损失对模型更新进行正则化来改进持续域漂移下的自我训练。最终的TTA模型,称为TRIBE,建立在一个带有平衡的batchnorm层的三网络结构上。我们在代表真实世界TTA设置的四个数据集上评估了TRIBE。在多个评估协议中,TRIBE始终实现了最先进的性能。代码可在https://github.com/Gorilla-Lab-SCUT/TRIBE上获取。
Sep, 2023
该研究论文探讨了小批量数据受损的问题,通过揭示批量归一化的不准确目标统计数据主要源于小批量中大幅减少的类别多样性,引入了一种简单的工具Test-time Exponential Moving Average (TEMA),以弥补训练和测试批次之间的类别多样性差距,进而提高准确的目标估计,在不需要训练或调参的情况下显著提高模型的鲁棒性。
Dec, 2023
通过仅操作 BN 层以减少学习干扰和提高域知识学习,结合自我监督学习提供监督,以及使用元学习强制辅助分支与主分支目标对齐的双层优化,我们的方法在五个真实领域转移数据集上优于其他方法。
Dec, 2023
通过在测试时进行领域适应,提出了一种抗干扰的实用测试时间适应(ResiTTA)方法,用于解决模型退化和数据质量问题。利用鲁棒批量归一化方法和软对齐策略缓解过拟合和模型退化,并采用熵驱动的记忆库存储高质量数据。通过教师-学生模型和自学习损失对模型进行周期性的适应,最终在多个基准数据集上取得了最先进的性能。
Jan, 2024
本研究针对机器学习算法在测试样本分布偏离训练样本分布时所面临的挑战,提出了一种新的测试时适应学习范式,结合了领域适应和领域泛化的优点。通过对400多篇相关论文的系统性回顾,本文将现有方法分类为五个类别,并深入分析其在分布变化评估及实际应用中的有效性,展望了测试时适应的研究机会。
Nov, 2024