不确定性感知的多视角表示学习
本文提出了一种新的概率多视图学习算法,利用视图间的随机一致性作为正则化,该算法在结构化和非结构化问题上工作,并容易推广到部分一致情况,其中在完全一致情况下,我们的算法最小化每个视图模型之间的Bhattacharyya距离,并在几个平面和结构化分类问题上表现优越。
Jun, 2012
本文提出了基于信息瓶颈原理的多视角无监督学习方法,通过对同一实体的两个视角进行对比得出冗余信息,进而定义新的多视角模型,在Sketchy数据集和MIR-Flickr数据集的标签受限版本上取得了最先进的结果;此外还通过数据扩增技术将理论扩展至单视角情况,实验证明更具有良好的泛化能力。
Feb, 2020
提出了一种新的多视角分类方法:可信的多视角分类,该算法动态集成不同视图的证据,以提高分类的可靠性和鲁棒性,通过将来自每个视图的证据参数化为Dirichlet分布并与Dempster-Shafer理论相结合,构建统一框架来感知和评估样本的分类不确定性。
Feb, 2021
本文旨在从潜在组件识别的角度理解基于最大化相关性的深度多视角学习,并采用一种直观的生成模型来分析多视角数据,它是共享和私有组件的不同非线性混合物,通过最大化潜在相关性,可以保证从各个视角提取共享组件(在一定程度上)并且还证明了通过适当的正则化设计,每个视图中的私有信息可以被明确地分离出来。
Jun, 2021
提出了一个基于不确定性的不完整多视图数据分类模型,通过构建分布来捕捉丢失视图的不确定性,并根据采样质量自适应利用它们来实现更明显的数据填充和可控融合,使用证据融合策略来保证集成填充视图的可靠性和性能,多个基准数据集的实验证明了该方法的优越性。
Apr, 2023
准确的不确定性估计对可信赖的机器学习至关重要,本研究引入了视觉模型的首个预训练不确定性模块,类似于标准的预训练,这使得在大型预训练数据集上学习到的不确定性能够零样本迁移到专门的下游数据集,我们通过解决以前的不确定性模块中的梯度冲突并将训练加速了180倍,实现了在ImageNet-21k上的大规模预训练,我们发现预训练的不确定性能够泛化到未见过的数据集,通过审视学习到的不确定性,我们发现它们捕捉了与认知成分独立的基本不确定性,我们证明了这使得安全获取和不确定性感知的数据集可视化成为可能,为了鼓励将这项研究应用于更多的问题和领域,我们在以下链接中发布了所有预训练的检查点和代码。
Feb, 2024
多视角表示学习中的重叠与纯化问题得到了深入分析,提出了一种创新的多视角表示学习框架,结合了一种名为“distilled disentangling”的技术,通过引入遮蔽交叉视角预测的概念,实现了从多种数据源中提取紧凑、高质量的视角一致的表示,进一步减少了与视角特定表示的冗余,提升了学习过程的整体效率。
Mar, 2024
通过引入噪音标签,我们提出了一种可靠的多视图学习方法,该方法能够学习每个实例的类分布,估计分类概率和不确定性,并且在准确性、可靠性和鲁棒性方面优于基线方法。
Apr, 2024
本研究解决了多视角分类中由领域差异和视角不一致导致的融合过程不确定性问题。提出的可信统一特征-邻域动态(TUNED)模型通过有效整合局部和全局特征邻域结构,提升了决策的鲁棒性,并在高不确定性和视角冲突场景下,实验结果表明其准确性和稳定性显著优于现有方法。
Sep, 2024
本文解决了多视图分类中处理不完整数据的挑战,传统插补方法常导致偏差,影响不确定性估计。我们提出的交替渐进学习网络(APLN)通过先进行粗插补,然后在潜在空间中逐步学习与目标域一致的证据分布,有效缓解了这一问题,尤其在高度不确定和证据冲突的环境中表现优异。
Sep, 2024