- ICML统一不确定性:将输入、数据和模型不确定性合并为单个公式
通过神经网络传播输入不确定性时,我们提出了一种同时能够估计输入、数据和模型不确定性的方法,结果表明这种输入不确定性的传播导致更稳定的决策边界,即使在大量输入噪声的情况下也是如此。
- 决策边界感知的知识整合产生更好的增量学习器
在实例增量学习中,我们定义了一种新的实用模型推广设置,通过仅使用新观察来提高模型性能,同时抵制灾难性遗忘和应对概念漂移问题,我们提出了一种新颖的决策边界感知蒸馏方法来整理知识,使教师模型成为更好的增量学习器,这颠覆了之前以学生模型为主要角色 - 利用反事实解释进行模型重建:缓解决策边界变动
通过利用虚拟的解释接近决策边界的特点,我们提出了一种称为 Counterfactual Clamping Attack (CCA) 的新型模型提取策略,该策略训练一个使用独特损失函数的代理模型,该损失函数将虚拟解释与普通实例区分对待。我们还 - 超几何度量学习用于视觉异常检测
使用双曲几何的度量框架提高超出分布检测的性能,并探索其与嵌入维度的关系,改善在资源受限环境中的实际应用。
- ICLRSUPClust: 边界主动学习
本研究提出了一种新的主动学习方法 SUPClust,旨在识别类别之间的决策边界上的点,通过针对这些点收集最具信息性以优化模型对复杂决策区域的预测,实验证明标记这些点可以显著提高模型性能,即使在强类别不平衡的情况下。
- 在核空间中基于边缘化少数群体的 SMOTE 解决不平衡数据中的分类歧视
基于决策边界和样本接近性关系的一种新的分类过采样方法,通过关注关键样本与决策超平面之间的距离以及周围样本的密度,提供了一种适应性过采样策略,在金融欺诈数据集上得出了可以提高少数类别分类准确性的有效和稳健的解决方案。
- 一种层次最近邻方法用于背景环境下的 Bandits
在这篇论文中,我们考虑了度量空间中的对抗性背景下的上下文强化学习问题。虽然论文《带有强化学习反馈的最近邻》解决了该问题,但当比较器策略的决策边界附近存在许多上下文时,会出现高度的后悔。本文中,我们通过设计一种算法来解决这个问题,可以在计算后 - 薄冰上的样本:重新评估神经网络的对抗剪枝
神经网络剪枝是一种有效的技术,可以减小网络大小,以提高稀疏性,但会牺牲泛化能力和对抗攻击的鲁棒性。本研究重新评估了三种最先进的对抗剪枝方法,发现它们的鲁棒性被高估,同时发现剪枝后,在接近未剪枝模型决策边界的样本通常被错误分类。通过讨论这一发 - 领域不变学习用于全景场景图生成
通过测量主题对象对之间的谓词预测风险,以及学习不变的谓词表示嵌入,我们提出了一种新的框架来推断潜在的有偏见注释并将其自适应地转移为一致的注释,从而显著提高了基准模型的性能,达到了最新的最佳表现,并在 Panoptic 场景图生成数据集上展示 - MMMDTD:基于深度神经网络的多领域木马检测器
该研究提出了 MDTD,一种用于检测 DNN 中的多领域特洛伊木马触发器的模型。MDTD 利用对抗学习方法估计距离决策边界的距离,以推断是否存在特洛伊木马触发器,对不同类型的触发器进行有效的识别。
- 用类热噪声绘制神经网络景观的地形图
通过采用统计力学的方法,我们研究一个超参数全连接的神经网络分类任务的优化过程,发现该过程与热力学中的温度有类似的波动统计,确定了低误差区域为低维流形,且该维度由决策边界的附近数据点的数量控制,并解释了在高温下主要采样弯曲程度较大的地区的原因 - EMNLP自适应负样本的开放世界分类
提出基于自适应负样本 (ANS) 的方法,设计可在训练阶段生成有效的合成开放类别样本,并在不需要任何先前知识或外部数据集的情况下使用。采用辅助的一对其余二元分类器,通过利用生成的负样本避免了复杂的阈值寻找阶段。在三个基准数据集上进行的大量实 - ICLR非参数异常合成
本文提出了一种基于非参数方法的异常检测框架,可在不依赖于高斯分布假设的情况下生成人工训练数据,从而有效地学习鲁棒的模型决策边界,并在超出分布的数据检测上表现出优越的性能。
- AAAI深入探讨联邦学习的对抗鲁棒性
本文研究联邦学习的对抗鲁棒性,通过各种攻击和对抗训练方法进行全面的鲁棒性评估,提出基于决策边界的联邦对抗训练算法 DBFAT,包括本地重新加权和全局正则化两个组件,实验证明在 IID 和非 IID 设置下,DBFAT 一直优于其他基准。
- ICLR探索和利用决策边界动态以提高对抗鲁棒性
通过对抗性训练中不同数据点的移动速度量化决策边界的相对速度,发现了决策边界的冲突动态,提出了一种优化边界移动以增加更小间距的方法 DyART,并在 CIFAR-10 和 Tiny-ImageNet 数据集上进行实验证明其对抗抵抗性更优于现有 - CVPR基于正则化流的特征合成技术在异常感知目标检测中的应用
提出了一种基于可逆规范化流模型的异常检测方法,通过学习所有合法目标类别的联合数据分布,能够在生成的异常特征具有低于所有目标类别合法物体的低可能性的同时,建模更好的入侵对象和异常对象的决策边界,在图像和视频数据集中显著优于现有的技术。
- 集成边界的近似对抗检测
本文提出了一种布尔函数的谱近似方法用于近似解决两种分类模式识别问题的深度神经网络的集合的决策边界。通过观察清洁和对抗图像之间的 Walsh 系数逼近差异,表明攻击的可转移性可用于检测。决策边界的近似也有助于理解深度神经网络的学习和可转移性 - 基于扰动学习的异常检测
本研究提出了一种用于异常检测的简单而有效的方法,通过学习对正常数据进行轻微扰动并学习分类器,将正常数据和被扰动的数据分类为两个不同的类,从而构建决策边界,并在基准数据集上展示了其效力和优越性。
- 语言模型 Few-shot 学习的基准校准
本文提出了原型校准方法,用于零样本和少样本分类中自适应地学习更健壮的决策边界,以替代贪婪解码。实验结果表明,原型校准在各种任务中都有显著的提高,从而极大地提高了 GPT 对不同模板、排列和类别不平衡的鲁棒性。
- AAAI深度强化学习策略跨 MDP 学习共享对抗特征
本文探讨和提出了一种框架,用于研究深度强化学习中跨状态和跨马尔可夫决策流程(MDPs)的决策边界和损失景观相似性,并发现高敏感性方向支持非鲁棒特征在训练环境中的共享,这一结果揭示了深度强化学习的基本特性,为构建稳健可靠的深度强化学习代理迈出