- HUWSOD: 统一弱监督目标检测的全面自学习
本文介绍了一种统一的,高容量的弱监督目标检测网络 HUWSOD,它利用了一个全面的自我训练框架,在不需要外部模块或额外监督的情况下生成候选区域。HUWSOD 创新性地结合了自我监督的候选生成器和自编码器候选生成器,以及多速率重采样金字塔,取 - ICML重新思考引导信息以利用无标签样本:一个标签编码的视角
Unlabeled samples are utilized through label encodings to ensure both prediction discriminability and diversity in Empir - 使用特征权重余弦对准进行增强的在线测试时自适应
在线测试时间适应(OTTA)是一种有效的策略,可以在推理期间用新的目标领域对预训练模型进行即时适应,无需源数据。本文引入了一种新的余弦对齐优化方法和双目标损失函数,以提高类别预测的精度和对新领域的适应性,克服了熵最小化方法的噪声梯度和不正确 - 熵之谜:熵最小化的成功与失败
通过分析熵最小化方法在模型适应和优化过程中的作用和原因,本文提出了一个估计模型在给定任意数据集上准确性的方法,并在 23 个具有挑战性的数据集上进行了实验证明其效果在这个任务上达到了最好的状态,绝对误差平均为 5.75%,较先前最好结果提高 - 在词序变异中最小化交换距离超越熵最小化
考虑语言结构的所有可能排列顺序的问题,研究了熵最小化和交换距离最小化原则对于 $n=3$ 或 $n=4$ 的语言结构中的影响,并通过掷骰实验和词序频率随机排列验证了熵最小化和交换距离最小化的强有力证据。
- CVPR使用有条件解码器增强视频的神经表示
通过引入条件解码器与熵最小化技术,该研究提出了一种通用增强框架,成功提升了隐式神经表示在视频存储与处理中的效果,并在多个基线模型上展现了优越的重建质量和收敛速度,为视频回归、修复和插值任务提供了一种强大的技术。
- 多领域文本分类的正则化条件对齐
我们提出了一种称为正则化条件对齐 (RCA) 的方法,通过对领域和类别的联合分布进行对齐,来匹配相同类别中的特征并增强获取的特征的判别能力,同时还利用熵最小化和虚拟对抗训练来限制未标记数据的预测不确定性并增强模型的鲁棒性。在两个基准数据集上 - AAAI奇异值惩罚和语义数据增强的全面测试时间自适应
通过最大化奇异值的总和同时最小化其方差,我们提出的方法在实现 FTTA 过程中增强了较难区分的类别的判别能力,有效提高了预测结果的多样性,并通过使用前一批次的数据为当前批次实现语义数据增广以减小过拟合风险。广泛的基准实验表明了我们提出的方法 - AdaMerging:多任务学习的自适应模型融合
本文介绍了一种创新技术称为自适应模型融合(AdaMerging),该方法通过无监督任务算术方案自动学习模型融合的系数,既可以在任务层面上,也可以在层级层面上,而无需依赖原始训练数据。实验结果表明,与当前最先进的任务算术融合方案相比,AdaM - ICCV基于群体智慧的熵最小化方法,实现测试时的开放集适应
通过以熵最小化为灵感来源的样本选择方法,我们过滤掉适应模型中的置信度值降低的样本,从而解决测试时自适应方法中由于错误预测导致的噪音问题,显著改善了图像分类和语义分割的长期适应性能。
- 视觉语言模型零样本泛化的测试时间自适应与 CLIP 奖励
提出一种测试时反馈方法来解决视觉 - 语言模型的输出与任务目标之间的不匹配问题,以避免模型过拟合于其不正确的输出分布。具体而言,采用 CLIP 作为奖励模型,在不同的任务中,包括图像分类、图像文本检索和图像标题生成等。通过强化学习,以最大化 - 一次学习的任务自适应特征转换
介绍了一个简单的非线性嵌入自适应层,对于一次性任务,在固定的预训练特征之上微调,从而显著改善了低样本情况下的传导熵推断。
- ICLR动态野外环境中稳定的测试时适应性
论文通过分析测试样本及训练数据的分配差异,发现批处理层对测试时间调整法的不稳定性有重要影响。作者提出了一种基于群组及层规范化的调整稳定方法,并提出一种名为 SAR 的方法,通过消除嘈杂测试样本及鼓励模型权重保持平稳的最小值,从两个方面进一步 - 基于蒸馏鉴别聚类的无监督领域自适应
该研究提出了一种名为 DisClusterDA 的新方法,将无监督领域适应问题重新表述为目标数据的判别式聚类,使用基于熵最小化、软 Fisher 准则和质心分类的聚类目标自适应地过滤目标数据来蒸馏判别式源信息,同时结合并行的受监督学习目标来 - 使用预训练网络进行协同学习,改善无源域适应
本文研究基于 ImageNet 预训练特征提取器的共同学习框架,以提高面向目标域的伪标记质量并进行迁移学习,同时使用熵最小化来提高非伪标记样本的预测精度,并在三个基准数据集上进行评估。结果显示,该方法优于现有的面向源自由域适应方法和假设联合 - 解决无源领域适应中的质心假设冲突
提出了一种新的解决策略,将源域的知识迁移到没有标签的目标域中,通过伪标签和类原型对齐熵最小化的目标,解决了伪标签和最小熵交叉的矛盾,实验证明新方法在三个领域适应数据集上均有有效性且可以提供最新架构的最先进结果。
- CVPRDist-PU:基于标签分布视角的正 - 无标记学习
本文提出了一种用于 Positive-Unlabeled 学习的标签分布一致性方法,通过对齐无标签数据和基础事实标签分布的期望值,实现了一定程度的学习监督,并进一步采用信息熵最小化和 Mixup 正则化来避免无标签数据上标签分布相同的平凡解 - 基于黑盒源模型的分割无监督领域自适应
本文提出了一种基于黑盒分割模型的无监督域自适应解决方案,利用指数混合衰减的知识蒸馏方案逐步学习目标特定表示,并应用无监督熵最小化来规范目标域置信度,最终在 BraTS 2018 数据库上取得了与白盒源模型适应方法相当的性能。
- 半监督学习中的信息论方法在协变量偏移下的应用
该研究提出了一种用于半监督学习在数据集分布改变的情景下的新方法,基于信息理论,该方法包括了当前流行的熵最小化和伪标签方法,提出了一些新的上界描述其泛化误差情况,其在数据集分布改变的情景下胜过之前提出的方法。
- 通过估计双类分布进行自监督学习
TWIST 是一种基于自我监督学习的表示学习方法,采用孪生网络和 softmax 操作来进行大规模无标签数据集的分类,并提出了一种最大化输入与类别预测之间的互信息、最小化每个样本分布熵和最大化平均分布熵的方法,从而避免了输出相同类别概率分布