学习鲁棒的深度平衡模型
使用中间梯度的方法对 Deep Equilibrium Models 进行白盒攻击与评估,提高了其对抗攻击的鲁棒性,实验证明其在 CIFAR-10 数据集上的性能与同等规模的深度神经网络竞争力相当。
Jun, 2023
本文提出一种正则化方案来加强深度均衡网络(DEQ)模型的学习稳定性,该正则化方案显著提高了 DEQ 模型的收敛速度和性能,使得 DEQ 模型与传统深度网络在速度和性能上保持相当,并且具有恒定的内存占用和简单的架构。
Jun, 2021
本篇文章介绍了一个简单而有效的策略,通过 Broyden's Method 的 Jacobian 估计来避免 DEQ 网络层的反向传播过程中需要解决的昂贵 Jacobian-based 方程。实验证明,仅通过再次使用此估计,就能显著加速训练同时不会导致任何性能退化。
Apr, 2023
通过引入一种名为正凹深度平衡 (pcDEQ) 模型的新型 DEQ 模型类,通过基于非线性 Perron-Frobenius 理论的方法强制非负权重和激活函数,可以简化训练过程并且保证了固定点的存在和唯一性,进而解决了 DEQ 模型存在的固定点唯一性和收敛性问题,实验证明了 pcDEQ 模型在隐式模型中的竞争力。
Feb, 2024
本文介绍了一种新的应用于序列数据建模的方法 —— 深度平衡模型,并比较其在大规模语言模型任务上的性能,该方法可通过求解根来直接获取固定点,训练和预测所需的内存只需常数级别,大大减少了存储消耗。
Sep, 2019
本文通过神经动力学的视角对 Deep Equilibrium 模型进行了解释,并提出了一种降低预测熵的方法来提高其鲁棒性。实验结果表明,该方法有效地提高了 DEQs 模型的鲁棒性,甚至优于强深度网络基线。
Jun, 2023
这篇研究论文介绍了一种称为 Deep Equilibrium (DEQ) 模型的隐式模型新类别,并提出了 TorchDEQ 库,该库能够在多个领域上定义、训练和推断使用 DEQ 模型,通过结合最佳实践,显著提高了 DEQ 模型在十个数据集上的性能、训练稳定性和效率。
Oct, 2023
本文提出 SODEF (一种稳定的神经 ODE),并验证其对抗攻击防御能力,该方法利用 Lyapunov 稳定的平衡点,通过一些正则化方法强制特征点落在该平衡点的邻域内, SODEF 可以应用于任何神经网络的最终回归层,以增强其稳定性。
Oct, 2021
本研究探讨了利用 Deep Equilibrium(DEQ)模型而不是传统的深度学习网络来解决联邦学习(FL)问题的新视角。我们声称将 DEQ 模型纳入联邦学习框架中,自然解决了 FL 中的若干开放问题,例如由于共享大型模型而产生的通信开销,以及能够并入具有显著不同计算能力的异构边缘设备。此外,在 FL 框架的服务器端提出了一种加权平均融合规则,以考虑来自异构边缘设备的不同模型质量。据我们所知,本研究是第一个建立 DEQ 模型和联邦学习之间联系的研究,对于开发高效而有效的 FL 框架做出了贡献。最后,我们给出有前途的初始实验结果,证明了这种方法在解决 FL 挑战方面的潜力。
May, 2023
基于数据驱动的机器学习方法正在越来越多地应用于解决偏微分方程(PDEs),特别是在训练运算符方面展现出了显著的成功。在本文中,我们研究了使用绑定权重神经网络架构求解稳态 PDEs 的优势,并证明了 FNO-DEQ 可以近似解决任何可写为固定点方程的稳态 PDE。
Nov, 2023