快速半监督学习的相关随机特征
通过深度典型相关分析 (DCCA) 找出可以最真实地从一种数据视角推导出的特征,进而构建出一非参数隐含联合概率分布的经典版本,以求解贝叶斯估算和标准偏差,并测试其在 OCCLUD MNIST 图像推理和监督学习中的可行性和效率,同时探索了发现单个数据集中显著的独立变量的可能性。
Apr, 2019
本文旨在从潜在组件识别的角度理解基于最大化相关性的深度多视角学习,并采用一种直观的生成模型来分析多视角数据,它是共享和私有组件的不同非线性混合物,通过最大化潜在相关性,可以保证从各个视角提取共享组件(在一定程度上)并且还证明了通过适当的正则化设计,每个视图中的私有信息可以被明确地分离出来。
Jun, 2021
通过利用随机性设计了新的可伸缩非线性 PCA 和 CCA 变体,并扩展到关键的多元分析工具,例如谱聚类或 LDA,并在真实世界的数据上进行了实验,与最先进的方法进行了比较。
Feb, 2014
本研究采用特征值分解解决非参数正相关分析问题,通过数据估计种群密度,降低计算负担,提高非参数 CCA 的性能,同时提出了部分线性 CCA 算法用于处理单个视图的线性投影问题。
Nov, 2015
通过优化每个视图的映射,该方法能够找到直接优化多视图之间数据分析任务的相关子空间,其标准从定义良好的检索任务中产生,检测非线性和本地相似性,并且在保留跨视图邻域相似性方面优于其他替代方案。
Nov, 2015
本文介绍了一种名为 “深度变分典型相关分析” 的深度多视图学习模型,它通过深度神经网络对非线性观测模型进行参数化,扩展了线性 CCA 的潜变量模型解释。同时,我们还提出了一种名为 “VCCA-private” 的 VCCA 变体,它可以在提取共享变量的基础上,提取每个视图内的 “私有变量”,在没有硬指导的情况下分离多视图数据的共享信息和私有信息。实际数据集的实验结果表明,我们的方法在各个领域都具有竞争力。
Oct, 2016
本研究介绍了一种名为张量 CCA (TCCA) 的多视角学习方法,它可以处理任意数目的视角的数据。通过分析不同视角的协方差张量,TCCA 试图直接最大化多个 (超过两个) 视角的典型相关性,并探索了容易被忽略的高阶统计数据量,可以通过最小化数据协方差张量的最佳秩 1 近似值来解决。
Feb, 2015
探索多个观测随机向量之间的潜在共变性的经典统计方法 —— 典型相关分析 (CCA) 以及其扩展和变化在发现多视图数据集中的共同随机因素方面的能力。该研究设计了一种新颖高效的模型,适用于典型相关分析的深度扩展,并克服了现有方法的局限性,将私有组件建模为在给定共同组件的条件下条件独立,从而提供了一种更紧凑的表述形式。通过合成数据和实际数据的实验验证了我们的结论和方法的有效性。
Dec, 2023
本文研究了利用 Nyström 逼近进行大规模核正交主成分分析(KCCA)中的列选择问题,其中利用训练集的 “地标” 点逼近两个半正定核矩阵。我们提出了一种基于最近为核岭回归开发的统计杠杆得分版本的非均匀采样地标策略,研究了所提出的非均匀采样策略的逼近精度,并开发了一种增量算法,易于探索逼近排名的路径并促进有效的模型选择,并推导了我们方法的样本外映射的核稳定性。在合成数据和实际数据集上的实验结果表明了我们方法的潜力。
Feb, 2016
本论文提出了一种基于随机优化算法的近似核正则化典型相关分析方法,具有在处理大规模数据集时计算效率高的特点,该方法应用于语音数据集处理中,包含 $1.4$ 百万的训练样本,以及维度 $M=100000$ 的随机特征空间.
Nov, 2015