Oct, 2024

用于训练两层ReLU神经网络的凸优化公式

TL;DR本文针对训练机器学习模型,特别是神经网络中存在的非凸优化问题进行了研究,强调了使用凸优化公式的必要性。作者提出了一种将无限宽度的两层ReLU网络训练问题重构为一个有限维度空间的凸完全正程序的方法,并引入了一种半正定松弛来提高计算效率。研究结果表明,该松弛在分类任务上的测试准确率表现优异,显示了其应用潜力。