BriefGPT.xyz
大模型
Ask
alpha
关键词
linearly separable data
搜索结果 - 2
一层隐藏层神经网络中的简单性偏差
该研究通过严格定义和深入探究神经网络的简单性偏差,理论上和经验上均证明在解决任务时只学习低维度输入的特征,不依赖于更复杂的特征,同时提出一种基于特征的训练顺序的集成方法,能够使得模型对高斯噪声具有更强的鲁棒性。
PDF
a year ago
使用线性教师研究神经网络中的学习
本文证明了,通过 SGD 训练具有 Leaky ReLU 激活函数的两层神经网络,可以在全局最小化交叉熵的同时学习线性可分数据,且学习的网络具有较为简单的近似线性决策边界。同时,本文提出了一种可以发现权重聚类的优化条件,并通过实验证明了理论
→
PDF
3 years ago
Prev
Next