Oct, 2023

样本条件下的假设稳定性改进信息论泛化界

TL;DR我们通过“邻近假设”矩阵的新构造以及一类新的稳定性概念——样本条件假设(SCH)稳定性,提出了新的信息论一般化保证。我们的方法提供了比先前信息论界限更精确的界限,适用于各种学习场景。值得注意的是,这些界限解决了在随机凸优化(SCO)问题的背景下现有信息论界限的局限性,正如Haghifam等人的最近工作所探讨的那样(2023年)。