ZORB:一种无导数反向传播算法用于神经网络
本文将 learning to learn(L2L)框架扩展到零阶(ZO)优化设置,其中没有明确的梯度信息,并将学习的优化器建模为循环神经网络(RNN),通过 ZO 梯度估算器近似梯度,并利用以前迭代的知识产生参数更新,进一步引入另一个 RNN 来学习高斯采样规则并动态指导查询方向采样。我们的学习优化器在合成和实际 ZO 优化任务中表现出优异的收敛率和最终解决方案,特别是在 Black-box Adversarial Attack 任务中。
Oct, 2019
DeepZero 是一个基于 Zeroth-order optimization 的深度学习框架,通过三个主要创新使得 ZO 优化可用于深度神经网络的训练,同时实现了与一阶优化相当的性能,其优点包括坐标梯度估计(CGE)在训练准确性和计算效率上的优势,以及利用模型剪枝方法扩展稀疏 DL 先验信息的 ZO 训练协议,并通过特征重用和前向并行化方法提高 ZO 训练的实际实施。
Oct, 2023
该研究论文提出了一种完全不需要使用反向传播的训练框架,通过引入压缩张量方差缩减方法和混合梯度评估方法,以及利用稀疏网格方法估计损失函数中的导数,该方法在训练规模和效率方面存在多个技术贡献,同时在 MNIST 数据集上与标准一阶训练相比,仅略有损失准确性,并成功地应用于物理建模相关的神经网络训练,这种无需反向传播的高效低内存方法有望在资源受限的平台上进行即将到来的设备端训练应用。
Aug, 2023
介绍了一种新的在线学习算法 —— 无偏在线递推优化(UORO),利用它可以进行通用递推计算图的在线学习,适用于递推网络模型等。UORO 算法避免了回溯过去激活和输入的需要,是一种类似于截断 BPTT 算法的计算算法。UORO 利用无偏梯度估计提供了无偏导数,而截断 BPTT 没有这个属性,而导致可能发散。
Feb, 2017
本文提出了零阶自然梯度下降(ZO-NGD)方法,以设计对抗性攻击,通过采用零阶梯度估计技术和二阶自然梯度下降方法,在黑盒攻击场景中提高查询效率,并在图像分类数据集上进行实证评估,证明 ZO-NGD 相对于现有攻击方法可以获得显著的模型查询复杂度降低。
Feb, 2020
本文提出了一种基于损失函数的零阶优化算法(ZO-SVRG)以及相应的快速收敛的优化方法,即方差减少,用于解决应用中需要零阶优化的挑战,可用于黑盒物质分类和黑盒深度神经网络模型生成对抗性示例。我们的理论分析揭示了 ZO-SVRG 的本质难点,并提出了两种利用方差减少的梯度估计器的加速版本 ZO-SVRG,其在 ZO 随机优化(迭代次数)方面具有已知的最佳速度。与当前其他最先进的 ZO 算法相比,我们的方法在功能查询复杂性和收敛速率之间取得了平衡。
May, 2018
本研究提出了一种名为 ZO-BCD 的零阶优化算法,可在大规模环境下完成优化问题的求解,并在小迭代计算复杂度下具有较佳的查询复杂度和更小的内存占用,同时将其应用在音频分类器中,实现了在小波域的对抗攻击效果。
Feb, 2021
本文介绍了两种零阶随机算法的优化和改进,其中一种通过新的 ZO-SVRG-Coord-Rand 算法和分析结果发现,比现有的同类算法以及 ZO-GD 和 ZO-SGD 更为优秀,另一种通过新的 ZO-SPIDER-Coord 算法有效降低了 Gaussian 随机变量的数量和步长的级别以实现相同的收敛速度和查询复杂度,并且自动实现了线性收敛率。
Oct, 2019
本文综述了零阶优化的方法,重点介绍了其优化思想、原则以及近年来的收敛分析进展。此外还介绍了零阶优化的一些应用,例如评估深度学习模型的鲁棒性、生成黑盒模型的解释以及在线传感器管理等。
Jun, 2020