BriefGPT.xyz
Dec, 2014
利用凸神经网络打破维度诅咒
Breaking the Curse of Dimensionality with Convex Neural Networks
HTML
PDF
Francis Bach
TL;DR
研究神经网络单隐层的一般化性能,使用非欧几里得正则化工具,证明了它们适应未知的线性结构,而使用稀疏感应规范则可以实现高维非线性变量选择,提供了简单的几何解释,并提供了一些凸松弛的简单条件来实现相同的一般化误差界限,留下存在或不存在多项式时间算法的问题。
Abstract
We consider
neural networks
with a single
hidden layer
and non-decreasing homogeneous activa-tion functions like the rectified linear units. By letting the number of hidden units grow unbounded and using classica
→