Feb, 2019

超越最小二乘法:通过自协调快速收敛正则化经验风险最小化

TL;DR通过使用带有二次希尔伯特范数的凸经验风险正则化的学习方法,我们考虑了线性预测器和非线性预测器的设置,同时包括正定核。针对这类损失,作者提出了一种偏差 - 方差分解思路,并通过改善偏差项、方差项或二者同时来快速逼近渐进速率,从而实现在减小自相近损失假设下的非高斯预测器更快速的收敛效果。