通过类似干扰任务寻找拥有生物可行性的对抗性鲁棒特征
本文研究模仿灵长类动物视觉系统中的神经表征可以产生对抗性稳健的人工视觉系统的想法。通过攻击猴子脑活动的方法,发现猴子的视觉系统对抗扰动的敏感度与稳健训练的人工神经网络相当。
Jun, 2022
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019
本研究表明,鲁棒优化可以被重新定义为对深度神经网络学习特征的先验约束,经过鲁棒模型学习的特征表示方法能够解决标准神经网络表示方法的缺陷,并显著提高了高水平的输入编码能力。同时,这些特征表示方法具有相对可逆性,允许直接可视化和操纵输入的显著特征,提示使用对抗性鲁棒性来改善学习表示方法的可行性。
Jun, 2019
DNNs guided by neural representations from the human ventral visual stream display increasing robustness to adversarial attacks, develop more human-like decision-making patterns, and suggest new robustness solutions by emulating the human brain.
May, 2024
本文提出了一种通过近似合成分析的方法来训练神经网络,利用可变形网格模型来优化图像与三维模型之间的关系,从而实现对数据的稳健泛化,本方法在测试集中表现良好,尤其在数据分布不均时表现更优。
May, 2023
运用多任务学习方法使深度神经网络对图片失真有着较好的鲁棒性,研究结果表明,从灵长类的视觉皮层中提取归纳偏见,使神经网络更类似于人类视觉系统,提高了其在面对失真问题时的效率。
Jul, 2021
该论文探讨了神经网络架构在解决视觉任务时存在的局限性,与人类学习抽象概念的策略不同。研究利用一组新的图像转换方法,对人类和网络在对象识别任务上进行了评估,发现常见网络的性能迅速下降,而人类能够以高精度识别对象。
May, 2022
通过图像转换模拟在周边视觉中模糊图像并降低颜色饱和度,研究表明,相比于原始图像,使用该转换的深度神经网络对于敌对攻击以及其他非敌对损坏具有更强的鲁棒性,对扰动数据的准确性高出 25%。
Aug, 2023
该研究提出了一个简单的卷积神经网络架构,并在相同条件下使用不同的数据增强和裁剪策略训练了 16 种不同的深度学习模型,以比较其在药物识别、控制组分类和细胞聚类这三个下游任务中所学到的特征提取的性能和效率,其结果表明,多切割和随机增强通常能提高性能,而自我监督模型的性能也非常高,是训练速度最快的模型之一,但需要最大的内存和计算资源。
Mar, 2022