本文介绍了生成对抗网络(GANs)的算法框架,将其与隐式生成模型的学习算法相联系,提出了基于密度比估计的方法并借此引导观察者更深层次地思考生成模型。
Oct, 2016
本文提出了一种用于训练 feed-forward CNN 的互补方法,目标是维护自然内部特征分布,并可用于GAN。该方法大幅减少了训练所需的图片数量,并取得了单张图像超分辨率和高分辨率表面法线估计的最先进结果。
Mar, 2018
本文提出了一种基于GAN模型学习的数据空间的内在维度特征来评估GAN生成数据能力的方法,同时提出了一种新的评估度量CrossLID,并通过在4个基准图像数据集上的实验表明,与其他现有的评价指标相比,CrossLID更加敏锐,并且可以用于改善GAN的生成质量。
May, 2019
研究了深度神经网络的几何属性和数据表示的内在维度,发现最后一个隐藏层的内在维度预测测试集合的分类准确性,这证明了可以广泛应用的神经网络是将数据转换为低维非线性流形的网络。
本研究发现神经网络可以学习较低维度的流形,从而在高维数据空间中分解数据,同时又能取得良好的泛化性能,重点关注降维和流形的内在维度等方面。
Jun, 2019
本文基于几何学的角度探究GAN潜在空间的性质和图像变异机制,并提出一种基于网络结构的方法计算GAN图像多丽安流形的黎曼度量,这一方法可以有效地优化潜在空间的优化等应用,并便于解释变换维度。
Jan, 2021
本文讨论了流形假设不适当地捕捉了图像数据中典型的低维结构。我们考虑流形联合假设,并在常用图像数据集上进行实证验证,发现观察到的数据在一个不相连的集合上。我们还发现,针对这种结构设计具有归纳偏置的模型可以提高分类和生成建模任务的性能。
Jul, 2022
通过研究深度学习模型的架构和数据内在结构之间的关系,本文探讨了深度学习的理论基础,并通过实验和物理启发式玩具模型的结合,揭示了它们的内在工作原理,旨在填补理论与实践之间的鸿沟。
Oct, 2023
本研究调查神经网络在不同图像领域中的学习差异,发现医学图像和自然图像领域之间存在着显著的缩放差异,并提出了一种与数据科学指标相关的缩放规律,同时揭示了数据集属性对神经网络泛化、表示学习和鲁棒性的影响。
Jan, 2024
尽管生成对抗网络(GANs)在实证方面取得了显著的成功,但其统计准确性的理论保证仍然相对悲观。本论文试图在理论和GANs以及双向GANs(BiGANs)的实践之间架起桥梁,通过推导出关于估计密度的统计保证,以数据的固有维度和潜在空间为基础。