学习神经网络的特定分布困难度
本文研究神经网络的理论解释,针对单个隐藏层、平滑激活函数和良好输入分布条件下生成的数据可否进行有效学习,证明了对于广泛的激活函数和任何对数凹分布的输入,存在一类单隐藏层函数,其输出为和门,难以以任何精度有效地学习,这一下界对权重的微小扰动具有鲁棒性,且通过实验验证了训练误差的相变现象。
Jul, 2017
通过对流形假设的研究,我们发现神经网络的可学习性与流形的曲率、正则性以及数据流形的体积之间存在紧密的关联;流形的有限曲率限制了学习问题的可解性,而数据流形的体积增加则会提高网络的可学习性。此外,我们还探讨了在真实世界数据中常见的具有异质特征的中间流形区域的情况。
Jun, 2024
通过全连接神经网络 (FNN) 建立分布回归的逼近理论和学习理论,针对概率测度作为输入变量的分布回归问题,建立了一种创新的神经网络框架,实现了定义在 Borel 概率测度空间上的泛函逼近理论,并通过两阶段误差分解技术推导了几乎最优的学习速率。
Jul, 2023
通过 Barron 定理,我们证明了一组满足某些 Fourier 条件的函数的组合可以通过一个多达 $n+1$ 层的神经网络来逼近,为深度神经网络的表达能力提供了解释。英文原文主要探讨了神经网络的一些基本性质以及其在生成模型领域的应用,建议阅读原文以获取更多细节。
Feb, 2017
广义分布学习(GD Learning)是一种全新的理论学习框架,通过包含先验知识并最小化学习误差来提高性能,以处理深度学习中的各种问题,包括超参数化、非凸优化、偏差 - 方差权衡和平坦极小值的机制等。
Jun, 2024
本文对于多项式时间内深度学习可以或不可以学习的函数分布进行了刻画,并证明了基于 SGD 的深度学习的通用性结果和基于 GD 的深度学习的非通用性结果。
Jan, 2020
本文主要研究基于深度神经网络的方法在训练数据与测试数据分布不一致时的性能问题,并通过学习训练样本的权重以消除特征之间的依赖关系,从而提高深度模型的性能。通过在多个分布泛化基准测试上的实验,与同类研究相比,我们的方法取得了很好的效果。
Apr, 2021
深度学习在不同领域展现了显著的成果,但为了理解其成功,我们需要研究其理论基础。本文探讨了一个不同的角度:深度神经网络如何适应不同地点、尺度和非均匀数据分布的函数的不同规则性。我们使用深层 ReLU 网络发展了非参数逼近和估计理论,并在多个函数类上应用了我们的结果,推导出相应的逼近误差和泛化误差。通过数值实验验证了我们结果的有效性。
Jun, 2024
这篇论文证明了深度学习在低交叉可预测性函数分布上的失败,提出了算法约束和跨预测性的概念,并利用信息度量来限制统计间距离,探讨了神经网络、优化误差和算法分析的相关问题。
Dec, 2018