MT3: 自监督测试时适应的元测试时间训练
测试时间自适应是将预训练的源模型无监督地适应到每个测试数据批次(无需大量测试数据,无法访问源数据)的过程,本研究提出了首个完全无监督的多源测试时间自适应框架(MeTA),它通过优化组合权重适应于测试数据分布,并只更新与目标数据最相关的源模型参数,避免 “遗忘” 源模型参数的问题。多个源模型的组合至少能与最佳源模型(具备先见之明)一样好,并且在测试数据分布随时间变化时性能不会下降(遗忘容忍性)。
Jan, 2024
深度学习模型在各种视觉任务中展现出卓越的性能,但它们常常容易受到测试时的领域转移所影响。为了缓解这些脆弱性,已经开发了测试时训练(TTT)方法,在训练时同时解决了主任务和次要任务,以在测试时作为自监督代理任务。在本文中,我们提出了一种基于多尺度特征图和离散潜在表示之间相互信息最大化的新型无监督 TTT 技术,它可以作为一项辅助聚类任务整合到标准训练中。实验结果表明,在不同的常见测试时适应基准上具有竞争力的分类性能。
Oct, 2023
该篇论文提出了一种 Test-Time Self-Training(TeST)技术,通过使用学生 - 老师结构学习不变和强鲁棒性表示来适应新的分布,进而提高模型在分布变化的测试时期的适应性,其结果显示,与现代域自适应算法相比,使用 TeST 的模型在目标检测和图像分割上达到了最新的测试时间域适应算法的最优水平。
Sep, 2022
META-MT 提供了一种新的基于元学习的方法来适应神经机器翻译系统 (NMT),可以使 NMT 模型很容易地适应多个领域的目标,同时需要极少量的领域数据。通过在模拟的离线元训练领域适应任务的基础上学习如何适应新的未见过的领域,我们将 NMT 系统的适应性视为元学习问题。我们在十个领域上评估了提出的元学习策略并展示了在很少的领域样例可用时,META-MT 可以显著优于经典的领域适应并且可以在只见到 4,000 个已翻译的单词 (300 对平行句子) 后比经典微调的 BLEU 指标高出多达 2.5 个点。
Apr, 2020
本次研究调查了测试时间适应(TTA)在机器学习中的应用与优化方法。针对不同的学习场景,研究紧分测试时间领域适应、测试时间批适应、在线测试时间适应和测试时间先验适应四类,总结了高级算法的分类方法,探讨了 TTA 的应用与未来研究的挑战。
Mar, 2023
本文的研究着重于文本识别问题,通过提出元自学习方法 (Meta Self-Learning) 和收集包含 5 个不同领域的超过 5 百万张图像的多源领域适应数据集,提供了一个基准测试,实验结果证明了我们的方法的有效性。
Aug, 2021
本文提出一种新的多模态测试时自适应模型,其中包含 Intra-PG 模块用于获取可靠的伪标签,以及 Inter-PR 模块用于自适应选择更可靠的伪标签,实现了基于多模态输入的 3D 语义分割稳定自学习。
Apr, 2022
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017