利用导数信息的非均匀随机特征模型
本文提出了一种半随机特征的非线性函数逼近方法。理论上证明了其具有优秀的逼近性能、优化性质和泛化性能,并通过实验表明其能够匹配神经网络的性能且需要更少的单元,同时提出了使用半随机特征的隐含集合方法。
Feb, 2017
研究浅层神经网络在过参数化情况下,如何使用二次激活函数进行训练并找到全局最优解,结果表明此方法适用于具有任意输入/输出对的任何训练数据,并可使用各种本地搜索启发式方法高效地找到全局最优解。同时,对於差分激活函数,我们也证明了梯度下降法在得到合适的初值后可以以线性速度收敛到全局最优解,它的输入来自符合高斯分布的选定属性且标记是通过种植的重量系数生成的。
Jul, 2017
使用基于稀疏连接ReLU激活函数的深层神经网络,通过适当选择网络结构实现多变量非参数回归模型的极小极限(最优)收敛速率(最多出现$log n$-因子),同时为多层前馈神经网络表现良好提供理论解释,并表明在不用结构约束的情况下,调整深度可以使模型的性能更好。
Aug, 2017
本文研究表明,在神经网络中使用ReLU激活函数和随机初始化梯度下降法可以以全局线性收敛率收敛于全局最优解,其分析依赖于神经网络的超参数和随机初始化方式,这些经验也可能有助于分析深度网络等其他一阶方法。
Oct, 2018
本文回顾了最近一系列训练超参数神经网络和学习随机特征的实证结果及其限制性说明,论述了神经网络的理论困境并对其表现出的令人印象深刻的经验结果提出了仍需克服的挑战。
Apr, 2019
研究了一些与浅层ReLU$^k$神经网络相对应的变分空间的近似容量,证明了这些空间包含充分平滑的函数与有限变化范数。此外,还建立了以变化范数为基础的逼近率与神经元数量的最佳逼近率,并且证明了浅层ReLU$^k$神经网络可以实现学习H"older函数的极小极值速率,而过参量化(深或浅)神经网络可以实现非参数回归的几乎最优速率。
Apr, 2023
本研究解决了深度神经网络导函数的最优Vapnik-Chervonenkis维度(VC-dimension)和伪维度估计的问题,并将其应用于机器学习方法中涉及函数导数的损失函数的学习误差估计,从而填补了包括物理为基础的机器学习模型和应用程序(例如生成模型、解决偏微分方程、操作学习、网络压缩、提取、正则化等)的学习误差估计的空白。
May, 2023
用普通微分方程(ODE)模型通过似然最大化进行训练的分布学习的非参数统计收敛分析是首次建立的,将速度场类和目标密度的相关收敛率以及对神经网络的影响纳入考虑。
Sep, 2023