Tent: 通过最小熵化实现完全测试时间适应
该论文研究深度神经网络在非训练时数据分布下表现不佳的问题,提出一种全测试时间适应的解决方案,通过使用替代熵和添加基于批次的熵最大化的多样性正则化器来解决熵最小化的早期收敛和不稳定性问题,并且可以通过在完全测试时间适应性损失中学习无需目标域标签或源域数据的输入变换模块,从而达到在ImageNet-C等挑战性基准测试中提高公共预训练图像分类器鲁棒性的效果。
Jun, 2021
本研究提出了一种基于能量的样本适应方法,通过将看不见的目标样本适应到源训练模型上,实现领域泛化分类,并通过引入分类潜变量和能量最小化等手段,有效地实现了对样本的量化表示。
Feb, 2023
本文提出了一种利用非参数分类器实现测试时自适应的方法(AdaNPC),该方法使用具有培训域中特征和标签对的存储器,以动态地适应不同领域的测试集。该方法通过本文进行的广泛数值实验比其他有竞争力的基线方法表现更好。
Apr, 2023
通过以熵最小化为灵感来源的样本选择方法,我们过滤掉适应模型中的置信度值降低的样本,从而解决测试时自适应方法中由于错误预测导致的噪音问题,显著改善了图像分类和语义分割的长期适应性能。
Aug, 2023
通过 AdaMixBN 模块和广义熵最小化 (GEM) 损失函数,本论文提出了一种名为 DomainAdaptor 的统一方法,用于进行测试时的适应学习,以最大限度地挖掘测试数据中的信息,并解决训练和测试样本之间的领域偏移问题,从而在四个基准测试中稳定超过现有方法,尤其在少量数据的未知领域中带来了更显著的改进。
Aug, 2023
提出了一种名为Robust Entropy Adaptive Loss Minimization (REALM)的方法,通过改进F-TTA中的噪声样本问题,提高了自适应过程的准确性。
Sep, 2023
提出了一种称为统一熵优化(UniEnt)的简单而有效的框架,用于同时适应协变量转移内分布数据和检测协变量转移外分布数据,并通过引入 UniEnt+ 来减轻由于硬数据分区而引起的噪声。在 CIFAR 基准和 Tiny-ImageNet-C 上进行的广泛实验显示了我们框架的优越性。
Apr, 2024
本研究针对测试时适应中的分布转变问题,提出了一种创新的方法,其核心在于建立一个统计框架来检测分类器熵值的分布转变,并通过在线适应机制动态更新分类器参数。实验结果表明,该方法在面对分布转变时显著提高了测试时的准确性,同时在没有分布转变时也保持了准确性和校准性能,优于传统的熵最小化方法。
Aug, 2024
本研究针对机器学习算法在测试样本分布偏离训练样本分布时所面临的挑战,提出了一种新的测试时适应学习范式,结合了领域适应和领域泛化的优点。通过对400多篇相关论文的系统性回顾,本文将现有方法分类为五个类别,并深入分析其在分布变化评估及实际应用中的有效性,展望了测试时适应的研究机会。
Nov, 2024