正则化自编码器从数据生成分布中学习
证明了 L2 正则化线性自编码器在所有临界点处均对称并学习到解码器的左奇异向量作为主方向,相关结果说明了主成分分析算法、计算神经科学和学习的代数拓扑性质。
Jan, 2019
本文提出了一种基于自动编码器与流形学习结合的数据探索方法,利用几何正则化项鼓励学习得到的潜在表示沿着数据的内在几何结构发展,并与常规方法相比较,证明该方法在保留内在结构、扩展能力和数据重构方面具有优势
Jul, 2020
本文提出了一个鼓励自编码器进行中间值重构的惯化机制,并通过一个简单的基准测试任务和经验证明,表明我们的惯化机制极大地改善了在这种情况下的插值能力,并产生对下游任务更有效的潜在代码。
Jul, 2018
本文提出了一种新方法,即采用对抗逼近自动编码器(AAAE)来研究具有对抗逼近的潜在代码,从而提高重建质量并学习具有流形结构的潜在空间,同时不需要对潜在代码进行正则化。
Feb, 2019
本文介绍了一个自编码器框架,结合隐式正则化和内部线性层,自动估计数据集的底层维度,生成正交流形坐标系,并提供周围空间和流形空间之间的映射函数,为拓展样本作出一定的贡献,展示了该框架在各种数据集中对流形维度的能够自动估计,分析了该架构的梯度下降动态,以及扩展到状态空间建模和预测的应用,并证明了该框架对超参数选择的鲁棒性。
May, 2023
我们提出了一种基于数据无关的潜在空间正则化约束,用于一对一重新嵌入初始数据流形到其潜在表示。通过神经网络的正则化,我们实现了拓扑保持,从 FashionMNIST 数据集到 MRI 脑部扫描等真实世界的编码问题,这种正则化技术可以提供可靠的复杂高维数据的低维表示。
Sep, 2023
本文提出了一种新的方法,通过使用梯度下降法来将异常数据映射到自编码器学习的正常数据流形上,以解决自编码器重建在本地缺陷存在时的分割问题,并通过正则化项在能量函数中引入先验知识来优化投影结果,该方法比传统重建方法在多个异常检测数据集上均取得了最优结果。
Feb, 2020