Oct, 2023

常数轮次学习的时间 - 空间下界

TL;DR对于每个常数 q,我们证明了在样本流上进行 q 次遍历的任何奇偶性学习算法都需要 Ω(n2) 的内存大小或至少需要 2Ω(n) 个样本数量,并且这是对于任何 q≥3 的第一个非平凡的下界。与先前的工作类似,我们的结果适用于具有许多近似正交概念的任何学习问题。我们还通过上界来补充下界,表明带有 q 次遍历的奇偶性学习可以使用 O (n2/log q) 的内存高效地完成。