图像表示的内在维度
研究了深度神经网络的几何属性和数据表示的内在维度,发现最后一个隐藏层的内在维度预测测试集合的分类准确性,这证明了可以广泛应用的神经网络是将数据转换为低维非线性流形的网络。
May, 2019
本文探讨了深度学习在计算机视觉领域的成功是否源于自然图像数据低维结构的存在,研究表明自然图像数据集确实具有很低的内在维度,并且低维度数据集更容易被神经网络学习和泛化。同时提出了一种可以在生成对抗网络(GAN)生成的合成数据上验证维度估计工具的技术。
Apr, 2021
本文中提出了一种新颖的自编码器深度表示学习方法,它将全局和局部内在维度约束的正则化引入数据表示的重构中,从而使学习到的低维特征更具判别性,从而提高下游算法的性能。
Apr, 2023
构建公平的深度神经网络是实现可信的人工智能的关键步骤。深入研究影响深度神经网络公平性的因素是减轻模型偏见的基础,但目前的方法在准确预测深度神经网络偏见方面存在局限性,仅依赖于训练样本数量并缺乏更精确的测量工具。在这里,我们建立了一个几何学视角来分析深度神经网络的公平性,全面探索了深度神经网络内部如何塑造数据集的本质几何特征 - 感知流形的本质维度和维度对深度神经网络公平性的影响。基于多项发现,我们提出了内在维度正则化(IDR)的方法,通过促进学习简洁而平衡的类别感知流形,增强模型的公平性和性能。在各种图像识别基准测试中,IDR 显著减轻模型偏见并改善其性能。
Apr, 2024
该研究旨在探讨卷积神经网络(CNNs)在自动驾驶中目标检测方面的应用,以及数据的内在维度与不同层的精度关系。研究发现在特征提取过程中,正常数据与增强数据的表示存在差异。
Oct, 2022
本文研究神经网络的困难难度和最小描述长度,通过在一个较小的随机空间中训练网络,我们测量特定数据集上的内在维度,得出具有大不同规模的模型的数据集内在维度基本相同,以及压缩网络是可以实现的。
Apr, 2018
本研究调查神经网络在不同图像领域中的学习差异,发现医学图像和自然图像领域之间存在着显著的缩放差异,并提出了一种与数据科学指标相关的缩放规律,同时揭示了数据集属性对神经网络泛化、表示学习和鲁棒性的影响。
Jan, 2024
探索了机器学习方法背后的机制,利用内在维度与相关性之间的纠缠提出了一种度量标准,用于量化高维流形之间的相关性。验证了方法在合成数据上的优势和缺点,并在神经网络表示中将分析扩展到大规模应用,揭示了多模态数据的潜在表示之间明显的关联,而现有方法在检测相似性方面存在显著困难。研究结果表明了潜在流形之间高度非线性的相关性模式的存在。
Jun, 2024
通过研究深度学习模型的架构和数据内在结构之间的关系,本文探讨了深度学习的理论基础,并通过实验和物理启发式玩具模型的结合,揭示了它们的内在工作原理,旨在填补理论与实践之间的鸿沟。
Oct, 2023