- 领域无关条件不变预测
通过基于判别风险最小化理论和算法的不变特征捕获来解决领域泛化中没有领域标签的挑战,通过测试真实数据集验证了该方法的有效性。
- 通过信息瓶颈约束提升对抗迁移性
基于信息瓶颈理论,我们提出了一种名为 IBTA 的黑盒可传递对抗攻击的新框架,利用不变特征的进展。通过在等效攻击性能约束下减少对原始数据的敌对扰动依赖性,鼓励更多地依赖对分类有最大贡献的不变特征,从而增强对抗攻击的传递性。通过重新定义基于 - 通过轻量不变特征学习对称矩阵和点云上的函数
提出了用于机器学习对称矩阵上不变函数和对点云上不变函数的数学公式,并结合 DeepSets 在不同尺寸的对称矩阵和点云上学习函数的可行性。
- IMO: 基于贪心逐层稀疏表示学习的预训练模型用于超出分布的文本分类
该研究关注域泛化的特定问题,通过学习不变特征,提出了 IMO:用于超出领域文本分类的不变特征掩码,来实现域外泛化;此外,IMO 还具有注意力模块,用于关注对预测有用的令牌。综合实验证明,IMO 在各种评估指标和设置方面显著优于强基准算法。
- HCVP: 基于层次对比视觉提示的领域泛化
利用视觉提示的层次对比式视觉提示 (HCVP) 方法,在领域泛化中展示了与传统方法不同的独特生成方式,提高了模型的泛化性能。
- 连续不变性学习
通过提出连续不变性学习方法,我们在理论上证明了这种方法相较于现有的不变性学习方法具有优越性,并通过实证结果在合成和真实数据集上验证了其卓越的性能表现。
- ALFA - 提高病理图像分类模型在未知医院的泛化能力的利用所有层次的特征抽象
我们提出了一种详尽的方法论,利用各种抽象级别,旨在增强图像分类对未被观察的医院的普遍性。我们的方法将基于增强的自我监督与组织病理学场景中的常见分布偏移作为先决任务相结合。通过这种方式,我们可以从训练图像中提取不依赖于训练标签的不变特征,从而 - 特征对齐的 Sinkhorn N-BEATS
本文提出了一种基于 Feature-aligned N-BEATS 的新颖模型,通过基于 Sinkhorn divergence 的对齐损失函数,可以在进行多个数据源的分类和预测过程中,实现多个数据源中不变的特征学习,并且在保持 N-BEA - SFP: 针对虚假特征的剪枝用于跨分布泛化
本文提出了一种新的模型剪枝框架 SFP,能够自动探索不变的子结构,以实现最佳的 OOD 泛化,并且还通过详细的理论分析提供了合理性保证和证明框架,揭示了高度偏差的数据分布如何影响模型的 OOD 泛化。
- 探索特征学习在越界泛化中的作用
通过理论研究发现,EMR 本质上学习了误差特征和不变特征,并且在 EMR 预训练期间学习的特征质量显着影响了最终的 OOD 性能。为了解决这个问题,我们提出了特征增强训练(FAT),通过保留已经学习到的特征并增加新的特征来强制模型学习所有有 - 利用频率分解挖掘单域的潜力进行泛化
本文提出通过多频域学习,利用两分支网络从单源域样本中提取不变特征,还揭示频率分解有助于模型学习难以学习的特征。实验表明,该方法优于单源域泛化的最新方法。
- CIPER: 使用对比学习和预测学习结合不变和等变表示
本研究通过 Contrastive Invariant and Predictive Equivariant Representation learning (CIPER) 方法,利用共享编码器和两个不同的输出头,旨在同时通过不变性和等变性 - 利用模态不变特征进行鲁棒性多模态情感识别(缺失模态)
本研究提出了使用不变特征的缺失模态想象网络解决异构模态之间的模态差异问题,改善了缺失模态预测的鲁棒性并提升了多模态情感识别表现。
- 使用形状不变李群变换器从一系列图像中区分模式和变换
采用基于李群变换器的代数方法实现场景的表征学习,能够自动发现场景中的独立对象和多种形状不变变换方式,从而实现场景简化。
- ECCV自适应聚合的模拟嵌入:学习可推广的人员再识别
本研究提出了一种称为通过自适应集成的 Mimic Embedding (META) 的新方法,该方法利用多个领域特定的网络和实例归一化技术来处理动态 ReID 中的 DG ReID 问题,并成功超越了现有该领域的先进技术。
- 关于超出分布泛化的理论框架
本文第一次尝试对 OOD 问题的可学习性和扩张函数进行严格和量化的定义,并引入了一个新的扩张函数概念来量化不变特征的方差程度,进而证明了 OOD 泛化误差界,实验证明我们的模型选择标准相比基线有显著优势。
- 领域泛化中的可迁移性量化和提升
本研究通过定义和计算可量化的可迁移性来研究这种特征,在领域泛化中,我们将其与诸如总变化和 Wasserstein 距离之类的区别和联系,发现现有算法中很少具有可迁移性,随后提出了一种新的算法,以测试各种基准数据集,并在其中实现了持续的改进。
- 面向因果联邦学习的增强鲁棒性和隐私保护
本文提出了一种在联邦学习中学习所有参与客户机中共同不变(因果)特征的方法,并经验性地分析了它如何增强模型的精度和隐私性。
- 具有无限可能性的联合对比学习
本文探讨在对比学习中通过新的概率模型进行的有效修改。通过推导一个特殊形式的对比损失函数,即联合对比学习(JCL),JCL 在搜索不变特征时具有更紧的约束条件。我们提出了对这种形式的上界的研究,这种上界允许端到端的训练方式中的解析性解决方案。 - 对比学习实现的深度鲁棒聚类
该论文介绍了一种新的深度聚类方法 - Deep Robust Clustering (DRC),它从两方面同时考虑了语义聚类和特征表现,从而增加了跨类别差异并同时减少了类内差异,且通过数据增强和对比损失的最小化在多项基准测试中显著提高了准确