Jun, 2023

一般化误差的平均场分析

TL;DR通过对概率测度空间进行微分计算的视角,我们提出了一个探索算法的弱广义误差和 $L_2$ 广义误差的新框架。具体而言,我们考虑 KL - 正则化的经验风险最小化问题,并建立了通用条件,使得在训练样本大小为 n 的情况下,广义误差的收敛速率是 $O (1/n)$。在一隐藏层神经网络的平均场区域的监督学习方面,这些条件反映在对损失和激活函数的适当可积性和正则性假设中。