- 神经网络在流形假设下学习的困难性
通过对流形假设的研究,我们发现神经网络的可学习性与流形的曲率、正则性以及数据流形的体积之间存在紧密的关联;流形的有限曲率限制了学习问题的可解性,而数据流形的体积增加则会提高网络的可学习性。此外,我们还探讨了在真实世界数据中常见的具有异质特征 - 通过流形假设的视角解析深度生成模型:一项调查与新连接
深度生成模型与流形假设之间的相互作用引起了人们的广泛关注。本文通过流形视角对 DGM 进行了首次调查,并对其进行了两个新的贡献:首先,形式上证明了高维似然函数的数值不稳定性是无法避免的;其次,发现基于自编码器的 DGM 可以被解释为近似最小 - 独立机制分析与多样性假设
Independent Mechanism Analysis (IMA) can address non-identifiability issues in nonlinear independent component analysis - 流形保持引导扩散
提出了 Manifold Preserving Guided Diffusion (MPGD),实现了一种无需训练的条件生成框架,利用预训练扩散模型和现成的神经网络,具有最小的附加推断成本,适用于各种条件生成应用,提供了高样本品质和高达 3 - CA-PCA:适用于曲率的流形维度估计
本研究提出了基于二次嵌入的局部 PCA(主成分分析)方法 CA-PCA,以校准底层流形的曲率,从而改进算法在高维数据分析中的估计效果。
- 熵优化传输的最小内在维度缩放
本文针对数据的低固有维度这一流形假设,提出了一种基于内在维度的统计精细界限的方法,证明了最小固有维度缩放现象是一种普遍现象,为熵正则化的统计效应提供了首个严格解释。
- 使用不平衡的图谱进行状态表示学习
本文提出了一种新的学习方法,利用不平衡的地图来提高自监督学习的效率,并在 AtariARI 基准测试中展示了其比现有算法具有更好的性能。
- 去噪深层生成模型
本文提出使用高斯噪声来解决高维密度函数模拟低维结构数据时的维度不匹配问题,并基于 Tweedie's 公式和噪声方差为条件的模型提出了两种方法。研究结果表明,虽然这些方法在理论上有合理性,但在实践中表现不一,并不是解决维度不匹配问题的最佳方 - TOAST: 基于拓扑的奇点跟踪算法
通过开发一种拓扑框架,定量测量局部内在维度和多尺度下点的欧几里得度量,检测复杂空间的奇异性,同时捕获图像数据中的奇异结构和局部几何复杂性。
- 利用流形先验在模型训练中融入远程学习
本研究提出了 Distance Learner 方法,利用 “流形假设” 作为先验知识,对于 DNN-based 分类器进行训练,结果表明 Distance Learner 相比标准分类器学习到更有意义的分类边界,并且在对抗鲁棒性任务中表现 - ICLR验证图像数据的流形并集假设
本文讨论了流形假设不适当地捕捉了图像数据中典型的低维结构。我们考虑流形联合假设,并在常用图像数据集上进行实证验证,发现观察到的数据在一个不相连的集合上。我们还发现,针对这种结构设计具有归纳偏置的模型可以提高分类和生成建模任务的性能。
- 诊断和修复深度生成模型中的流形过拟合问题
本文研究了基于最大似然估计的深度生成模型在处理高维数据时可能存在的流形过拟合问题,提出了一种由降维和密度估计两步组成的有效算法,能够避免流形过拟合问题并且实现了对隐式模型的密度估计。
- 维度通用的正则化流
本研究介绍了一种名为 NIF 的流行有噪声映射模型,可以通过注入变换学习数据流形的降维表示,有效提高了样品质量和数据嵌入的可分性。
- 在流形假设下多尺度 Langevin 动力学的快速混合
本文研究了图像生成的任务,结合马尔可夫链蒙特卡罗技术及 Langevin Dynamics 的理论优势,提出使用流形假设减少混合时间并利用多尺度算法解决高维采样空间对计算性能的影响,以达到平衡图像质量和计算成本的目的。
- 具有学习潜在结构的变分自编码器
本文提出了一种新型的 Variational Autoencoder with Learned Latent Structure(VAELLS)模型,该模型融合了可学习的流形模型,使得先验分布与数据流形匹配,并允许定义潜在空间中的生成变换路 - ICML同胚变分自编码的探索
本文研究了流形值潜变量的使用,特别是连续可微的对称群(李群)的情况,展示了如何通过将再参数化技巧扩展到紧连李群来构造带有李群潜变量的变分自编码器,并通过实验展示了匹配潜在数据流形拓扑结构的流形值潜变量对于保留拓扑结构和学习良好的潜空间至关重 - ICLR流形正则化鉴别性神经网络
该研究探讨了深度神经网络中过拟合问题的原因,并提出了基于流形假设的正则化方法,包括有标签和无标签情况下的流形正则化,实验证明这些方法可以显著提高模型泛化性能。