Jul, 2024

关于使用统计和梯度查询学习稀疏函数的复杂性

TL;DR研究梯度算法在学习稀疏函数(juntas)时的复杂性。引入了一种称为可微学习查询(DLQ)的统计查询类型,用于建模指定损失相对于任意模型的梯度查询。提供了对于在通用产品分布上学习稀疏函数的DLQ查询复杂性的紧密刻画。DLQ查询复杂性关键取决于损失函数。对于平方损失,DLQ与相关统计查询(CSQ)的复杂性相匹配——可能比SQ复杂得多。但对于其他简单损失函数,包括l1损失,DLQ总是实现与SQ相同的复杂性。还提供了DLQ确实可以捕捉(随机)梯度下降学习的证据,通过展示其正确描述均场区域和线性放缩中两层神经网络学习的复杂性。