Feb, 2024

经验风险最小化与 f - 散度家族中的正则化的等价性

TL;DR给定函数 $f$ 的分裂散度正则化 (Empirical Risk Minimization with $f$-Divergence Regularization) 的解决方案,该解决方案在 $f$ 的条件适当的情况下,得到最优测度是唯一的。通过利用 $f$-divergences 家族的灵活性,得到了对于特定 $f$ 函数选择的解决方案,包括使用相对熵正则化(Type-I 和 Type-II)的唯一解。当在 ERM-$f$DR 问题中使用 $f$-divergence 时,解决方案的分析揭示了以下性质:$i$)$f$-divergence 正则化使得解决方案的支持与参考测度的支持重合,从而引入了强大的归纳偏差,支配着训练数据提供的证据;和 $ii$)任何 $f$-divergence 正则化都等价于使用适当的经验风险函数转换的不同 $f$-divergence 正则化。