利用反馈循环进行对抗训练
通过分析决策空间中的模型鲁棒性,提出一种反馈学习方法,以了解模型的学习情况,促进纠正缺陷的重新训练过程。根据一组基于距离的准则进行的评估表明,我们的方法可以显著提高模型的准确性和对各种逃逸攻击的鲁棒性,同时观察到跨类不平等的存在,并提出通过改变不同类别中生成的示例的比例来弥补它。
Sep, 2019
本文研究了使用合理神经网络控制理论,针对神经反馈环的鲁棒性问题,设计了合理激活函数,并构建了一个内在可凸性结构的合理神经网络,通过对 Sum of Squares 可行性测试进行优化,成功实现了对具有非线性噪声和参数不确定性植物的神经反馈环的稳定化控制
Jul, 2023
本文提出一种通过闭环控制方法解决神经网络鲁棒性问题的方法,通过嵌入数据流形的几何信息和优化控制,以实现对各种数据干扰的鲁棒性,本方法为通过闭环控制提高神经网络鲁棒性的首次尝试。
Feb, 2021
利用控制论技术,通过在线适应法更新深度神经网络参数,控制域偏移以及解决稳定性和迁移学习问题,提高深度神经网络基于学习的系统的性能和保证。
Feb, 2024
该研究探讨了人类大脑中反馈连接在人工神经网络研究中的重要性。设计了一种受生物启发的反馈机制来控制修正线性单元。在 MNIST 数据集上,使用反馈的自编码器表现出更快的收敛速度、更好的性能和更强的抗噪声能力。在 CIFAR-10 数据集上,虽然表现不如在 MNIST 数据集上显著,但仍然能够得到一定程度的优化。
Jan, 2023
应用生物物理学原理进行非线性计算后,我们开发了一种方案来训练深度神经网络以使它们对抗性攻击具有强鲁棒性。该方案生成高度非线性,饱和的神经网络,即使在没有遭受敌对的选择性训练样本的情况下,在 MNIST 上也实现了状态的最先进表现。
Mar, 2017
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018