费米 - 玻色机
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
本文探讨了神经网络对分布偏移的敏感性问题解决方案中的对抗训练,以及了解到神经网络与人类理解不同的处理方式,更进一步地研究对抗训练对于神经网络偏向形状的影响并给出可能的解释,从频率角度分析了其效果。
Mar, 2023
通过对对抗性机器学习模型的综合探索,我们发现了它们内在的复杂性和可解释性,并揭示了它们与爱因斯坦的特殊相对论之间的有趣联系,涉及到纠缠的概念。这一发现对描述当代机器学习模型中观察到的对抗可迁移性现象的传统观点提出了挑战。通过将计算过程中的时间扭曲和长度收缩与相对性效应进行类比,我们能够更深入地了解对抗性机器学习,从而为这个快速发展的领域中更健壮且可解释的模型铺平道路。
Sep, 2023
本文针对现有无监督对比学习算法存在的局部学习和全局学习性能差异的问题,提出了一种新的解决方案,即将本地块重叠并堆叠在一起以增加解码器深度,并为上层块隐含地向下层块发送反馈。通过在 ImageNet 中的实验以及直接使用 readout 特征进行对象检测和实例分割等复杂下游任务,我们发现该方法可有效处理局部学习和端到端对比学习算法之间的性能差距。
Aug, 2020
我们通过调整表示分布的熵,训练神经模型生成一系列离散表示,并在微调实验中展示了将表示调整到任务适当复杂度水平支持最高微调性能,并通过离散表示的可视化帮助用户在下游任务中识别适当的复杂度水平,这为利用人类洞察力快速微调模型指明了一个有希望的方向。
Oct, 2023
这篇论文提出了一种受到神经科学和自监督深度学习最新进展启发的学习规则,使用局部,赫布规则进行权重更新,并具有深度分层的图像、语音和视频表示。
Oct, 2020
本篇论文介绍了一种名为 Event-Driven Random BP (eRBP) 规则的神经形态计算方法,可用于学习深度表示,其具有在神经形态硬件中实现的优势,并且与 GPU 上的人工神经网络模拟相比,分类准确性相近且在学习过程中鲁棒性较强。
Dec, 2016
本文探讨了大脑如何使用 Hebbian 学习规则来避免高维稀疏分布表示的 “维度灾难” 问题,并使用特定的稀疏数据集来证实使用 Restricted Boltzmann Machines 分类器的好处。
Jul, 2022
通过引入双网络的反向传播方法和将网络中的层激活视作概率分布的参数,本文提出了一种解决反向传播中锁死和权重传输问题的新方法,从而实现对大型网络的分布式高效训练。相应的实验结果表明了其在多种任务和结构上的优越表现。
May, 2023
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020