Nov, 2023

迁移式在线学习的三分论

TL;DR我们对Ben-David、Kushilevitz和Mansour (1997)的可逆在线学习设置中学习者错误的数量提出新的上界和下界。定性地,我们证明了一个三分法,即随着n的增长,学习者所犯错误的最小数量只能取三个明确定义的值之一:n,Θ(log(n))或Θ(1)。此外,这种行为是由VC维度和Littlestone维度的组合确定的。定量地,我们展示了各种将错误数量与众所周知的组合维度相关联的界限。特别地,我们将Θ(1)情况下的常数的已知下界从Ω(√log(d))改进为Ω(log(d)),其中d是Littlestone维度。最后,我们将我们的结果扩展到多类分类和不可知设置。