May, 2024

算法稳定性可测试吗?在计算限制下的统一框架

TL;DR算法稳定性是学习理论中的一个核心概念,它量化了算法对训练数据中微小变化的敏感性。如果学习算法满足特定的稳定性属性,这将导致许多重要的下游影响,如泛化性能、鲁棒性和可靠的预测推理。然而,最近的研究结果表明,对于黑盒算法而言,在有限来自未知分布的数据的情况下,验证稳定性是不可能的,尤其是当数据存在于无穷空间(如实值数据)的情况下。在本文中,我们将这个问题扩展到更广泛的设置中,其中数据可以存在于任何空间,例如分类数据。我们提出了一个统一的框架来量化测试算法稳定性的难度,这证明了在所有设置中,如果可用的数据是有限的,则穷举搜索基本上是唯一有效的证明算法稳定性的机制。由于在实践中,任何稳定性测试自然都会受到计算约束的限制,因此穷举搜索是不可能的,这意味着我们测试黑盒算法的稳定性属性能力存在根本限制。