Mar, 2024

非光滑隐式微分:确定性和随机收敛速率

TL;DR我们研究了参数化不可微收缩映射的不动点导数的高效计算问题,这个问题在机器学习中有广泛应用,包括超参数优化、元学习和数据污染攻击。我们分析了两种常见方法:迭代微分(ITD)和近似隐式微分(AID)。在非光滑环境下的一个关键挑战是链式法则不再成立。在 Bolte 等人(2022 年)最近的工作基础上,他们证明了非可微 ITD 的线性收敛性,我们提供了对确定性情况下 ITD 和 AID 的改进线性收敛率。当不动点被定义为外部映射和仅能通过随机无偏估计器访问的内部映射的复合时,我们进一步介绍了一种名为 NSID 的新方法来计算隐式导数。我们建立了 NSID 到真导数的收敛速度,包括在光滑环境中的最佳速度。我们进行了说明性实验证实了我们的分析结果。