In supervised machine learning, the choice of loss function implicitly
assumes a particular noise distribution over the data. For example, the
frequently used mean squared error (MSE) loss assumes a Gaussian nois
这篇研究论文探讨了使用高斯特征的超参数化线性模型在分类和回归任务中的表现,发现当过度参数化时,所有训练点都成为支持向量,从而演化出一个法向量的模型,比起普通的最小二乘法和解决分类问题的 SVM,更适用于两者的情况,并讨论了在不同 loss function 下,训练(优化)和测试(归纳)階段使用的方法的不同作用和特性。