MT3: 自监督测试时适应的元测试时间训练
本文提出一种使用时间卷积和软注意力的简单而通用的元学习器结构,命名为SNAIL, 在广泛的元学习实验中实现了表现显著优于现有技术,并获得了当前最先进的性能。
Jul, 2017
本文探讨了在机器学习系统被分布转移影响时, 如何通过自适应风险最小化方法 (ARM) 以提高对新领域和分布的分类准确率, 在多个图像分类问题中, 与其他鲁棒性、不变性和适应性方法相比,ARM方法提高了1-4%的测试准确率。
Jul, 2020
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了MTL作为一阶方法可以代替计算代价高的二阶方法——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
该篇论文提出了一种Test-Time Self-Training(TeST)技术,通过使用学生-老师结构学习不变和强鲁棒性表示来适应新的分布,进而提高模型在分布变化的测试时期的适应性,其结果显示,与现代域自适应算法相比,使用TeST的模型在目标检测和图像分割上达到了最新的测试时间域适应算法的最优水平。
Sep, 2022
Train/Test-Time Adaptation with Retrieval is a method that improves model adaptation both during training and testing phases by using a retrieval module and a pool of external samples, which can be used to compensate for the lack of adaptation data, and achieve better downstream classification performance.
Mar, 2023
通过在测试阶段将源域模型适应到测试数据,测试时间适应旨在应对未见过的损坏并证明其成功。然而,在更具挑战性的真实场景下,这些尝试可能会失败。现有的作品主要考虑了非独立同分布的真实世界测试时间适应和持续的域漂移。在这项工作中,我们首先用全局类别不平衡的测试集对现有的真实世界TTA协议进行补充。我们证明将所有设置结合起来对现有方法提出了新的挑战。我们认为现有最先进的方法的失败首先是由于在不平衡的测试数据上不加选择地适应归一化层引起的。为了解决这个缺点,我们提出了一个平衡的batchnorm层,用于在推理阶段替换正常的batchnorm。新的batchnorm层能够适应而不偏向多数类别。我们受到自我训练(ST)在学习无标签数据中的成功启发,并将ST用于测试时间适应。然而,单独使用ST容易出现过适应,这是持续域漂移下性能不佳的原因。因此,我们提出通过使用锚定损失对模型更新进行正则化来改进持续域漂移下的自我训练。最终的TTA模型,称为TRIBE,建立在一个带有平衡的batchnorm层的三网络结构上。我们在代表真实世界TTA设置的四个数据集上评估了TRIBE。在多个评估协议中,TRIBE始终实现了最先进的性能。代码可在https://github.com/Gorilla-Lab-SCUT/TRIBE上获取。
Sep, 2023
深度学习模型在各种视觉任务中展现出卓越的性能,但它们常常容易受到测试时的领域转移所影响。为了缓解这些脆弱性,已经开发了测试时训练(TTT)方法,在训练时同时解决了主任务和次要任务,以在测试时作为自监督代理任务。在本文中,我们提出了一种基于多尺度特征图和离散潜在表示之间相互信息最大化的新型无监督TTT技术,它可以作为一项辅助聚类任务整合到标准训练中。实验结果表明,在不同的常见测试时适应基准上具有竞争力的分类性能。
Oct, 2023
测试时间自适应是将预训练的源模型无监督地适应到每个测试数据批次(无需大量测试数据,无法访问源数据)的过程,本研究提出了首个完全无监督的多源测试时间自适应框架(MeTA),它通过优化组合权重适应于测试数据分布,并只更新与目标数据最相关的源模型参数,避免“遗忘”源模型参数的问题。多个源模型的组合至少能与最佳源模型(具备先见之明)一样好,并且在测试数据分布随时间变化时性能不会下降(遗忘容忍性)。
Jan, 2024
研究了在测试时间内将源预训练模型适应一系列未标记目标领域的问题,并提出了一种级联范式,同时在测试时间内更新特征提取器和分类器,减轻它们之间的不匹配,并在有限未标记数据的情况下鼓励快速适应。通过创新的评估指标,如平均准确率和前向传递,有效衡量模型在动态真实场景下的适应能力,并通过广泛的实验证明了方法在图像分类、文本分类和语音识别等一系列任务中的优越性。
Jul, 2024
该研究解决了测试时领域适应中,预训练模型在有限无标签目标数据上表现不佳的问题。提出了一种元学习最小最大框架,使自监督学习任务与主要任务对齐,同时减少小批量过拟合。研究表明,该方法显著提升了模型在未知领域的鲁棒性,并在多个领域适应和泛化基准测试中超过了最先进技术。
Oct, 2024