- CVPR深入数据:有效替代式训练针对黑盒攻击
本文提出了一种新的替代训练视角,着重于设计在知识窃取过程中使用的数据分布,提出了多样化的数据生成模块来综合宽泛的分布的大规模数据,并引入对接近决策边界的数据进行对抗替换训练策略,两个模块的结合可以进一步提高替代模型和目标模型的一致性,大大提 - 使用线性教师研究神经网络中的学习
本文证明了,通过 SGD 训练具有 Leaky ReLU 激活函数的两层神经网络,可以在全局最小化交叉熵的同时学习线性可分数据,且学习的网络具有较为简单的近似线性决策边界。同时,本文提出了一种可以发现权重聚类的优化条件,并通过实验证明了理论 - ICML基于决策边界复杂性的深度神经网络可泛化性分析
本研究提议使用决策边界复杂度(DBC)评估深度神经网络 (DNN) 的泛化能力,并使用 DBC 计分系统定义和测量 DNN 决策边界的复杂性。DBC 评分可以提供一个定量的泛化评估方法,并证明了使用更简单的决策边界对模型泛化能力表现更好的假 - CVPR基于批次核范数最大化的区分性和多样性增强技术:适用于标签不足情况
本研究提出了一种名为 BNM 的方法,通过批量输出矩阵的核范数最大化,提高判别力和多样性,从而增强典型半监督学习、域适应和开放领域识别等标记不足学习场景的学习效果。
- CVPRGeoDA: 一个基于几何的黑盒对抗攻击框架
本文提出一种有效的黑盒攻击算法,用于生成三维深度神经网络的对抗样例,该算法利用网络决策边界以及小曲率特性来生成具有小 l_p 范数的有效迭代算法,该算法获得了比现有算法更好的结果。
- 深度神经网络的决策边界研究:实证研究
深度学习神经网络中决策边界的演变及其对抗训练的影响等领域的问题研究。
- 深度神经网络的决策边界特征化
本文提出了一种 Deep Decision boundary Instance Generation(DeepDIG)的方法,在决策边界附近通过生成样本来深入理解深度神经网络的工作机制和决策行为多方面特征。在多个数据集上进行了实验和测试。
- 调整决策边界用于类别不平衡学习
本论文中,我们提出了一种新方法来解决神经网络训练中出现的类不平衡问题,这种方法旨在画出更好的决策边界并缩放权重向量,从而实现优秀的性能结果。
- 渐进式夸张解释
本文提出了一种基于类的语义扩张的方法,该方法可以解释分类黑盒模型的结果,是模型无关的,并且只需要输出值和预测器相对于其输入的梯度。
- 针对生成式零样本学习的特征混淆缓解
本文提出了一种新的特征生成网络 AFC-GAN,用于解决基于 GAN 的零样本学习中存在的特征混淆问题,通过提出边界损失和特征混淆得分指标 FCS 等方法可以显著提高模型的性能。
- KDD具有新兴子类的连续稀有类别识别
该研究提出了 RaRecognize 方法,基于稀有类和大多数类之间的决策边界、稀有子类识别以及新兴实例标记的方法来识别稀有类实例。实验结果表明,RaRecognize 在包含公司风险和灾难文档的三个真实数据集上优于现有的基准。
- 深度网络的几何形态:能量图细分
本文研究了使用分段仿射和凸非线性的深度神经网络的几何结构,证明了每个 MASO 层的输入空间分割对应于一个幂级数,并提供了其分析形式。我们进一步展示 MASO 层的组成产生了一个逐渐细分的幂图,并为分类问题得到了一个 MASO DN 在输入 - 关于认证抵御对抗攻击的非均匀界限
研究神经网络模型的鲁棒性认证问题,提出一种框架来限制输出标志,以使加宽限制后的问题能够通过增广 Lagrangian 方法来解决,证明了非均匀限制具有更大的体积和更好的鲁棒性,并提供了一种定量的数据 - 不可知度量输入特征的鲁棒性。
- ICML通过生成式分类器实现强健推断以处理有噪声标签
该论文提出了一种名为 Robust Generative 分类器的推断方法,可用于任何已训练有噪声数据集的鉴别性神经分类器,通过在预训练的深度模型的隐藏特征空间上引入生成性分类器,估算其参数并使用最小协方差行列式估计器显著提高其分类准确性, - CVPRSparseFool:少数像素造成的巨大差异
本文提出了一种基于几何学思想、利用决策边界低平滑性的攻击方法 SparseFool,能快速计算稀疏扰动,并且经过充分的评估,发现该方法能在高维数据中高效地尺度化,对视觉效果具有一定的可转移性,同时对稀疏加性扰动具有较好的鲁棒性,与对抗训练相 - 分类问题的复杂程度如何?关于分类复杂度测量的调查
本文介绍从训练数据集中提取的能用于特征描述的分类复杂度的测量方法,包括数据的空间分布、决策边界的形状和大小等。同时,分析了这些特征在最新研究中的应用以及未来的工作机会,并介绍了一个名为 Extended Complexity Library - AAAI支持决策边界的对抗样本知识蒸馏
本文提出了一种新的基于决策边界的知识蒸馏方法,利用对抗攻击的方式发现支持决策边界的样本来训练学生分类器以传递更加精确的信息,实验证明该方法提高了知识蒸馏的效果并达到了最先进的性能。
- 基于边缘的深度网络对抗式主动学习
本研究提出了一种新的主动学习策略,利用对抗性样本逼近决策边界来最小化训练过程中从神经网络的标注查询次数,实验证明这种方法加速了 MNIST、Shoe-Bag 和 Quick-Draw 数据集上的卷积神经网络收敛速度。
- NIPS模型解释的有趣特性
本文研究了产生于复杂模型后期的线性解释或与上下文解释网络 (CENs) 一起产生的线性解释。研究主要聚焦于线性解释是否一直是始终如一的或容易引导,同时研究在将其整合到预测过程中时,解释是否会影响模型程序的表现。我们的分析揭示了不同方法产生的 - 深度神经网络分类区域
本文研究了深度神经网络在输入空间中的几何属性,通过系统实证研究发现,深度神经网络具有连通的分类区域并且其在数据点附近的决策边界在大多数方向上是平坦的,同时该文进一步证明了深度神经网络曲率决策边界的本质联系,最终提出了一种基于决策边界曲率的小