基于极小后悔的抗干扰决策树的协同进化算法
本文研究了树模型中对抗样本和模型稳健性的问题,并提出了一种优化决策树构建过程的算法,通过在最坏情况下的输入特征扰动下优化性能,可以显著提高树模型对抗样本的稳健性。
Feb, 2019
本文提出一种基于威胁模型的决策树学习算法 Treant,通过采用坚固分裂和攻击鲁棒性等两种技术手段,使得学习过程更为完整、高效,有效提高抗攻击性能。
Jul, 2019
深度神经网络逐渐被用于在组合优化领域中进行算法选择,尤其是在避免设计和计算特征的输入表示方面。然而,深度卷积网络在对抗示例方面存在漏洞,而最近在装箱问题领域中显示出潜力的深度递归网络是否同样易受攻击尚不清楚。本研究使用进化算法在在线装箱基准数据集中找到实例的扰动,导致训练的深度递归网络进行误分类。进一步的分析揭示了一些训练实例的脆弱性以及影响因素,并通过生成大量新的误分类实例提供了更丰富的训练数据以创建更强大的模型。
Jun, 2024
本研究提出了一种使用梯度下降学习固定坐标轴的坚硬 Decision Trees 的新方法,该方法使用反向传播来联合优化所有树参数,相比于现有方法,我们的方法在二元分类基准上表现更好,并在多类任务中取得了竞争性的结果。
May, 2023
该论文介绍了一种名为 Triple-Metric EvoAttack(TM-EVO)的有效算法,用于评估目标检测深度学习模型对抗性攻击的鲁棒性,通过利用多度量适应函数指导进化搜索来创建具有最小扰动的有效对抗测试输入,评估结果表明,TM-EVO 优于基准算法 EvoAttack,能够生成更少噪音且保持高效的对抗测试。
Apr, 2024
该论文讨论了一种名为 Distributionally Robust Optimization (DRO) 的学习方法,该方法不一定能够保证在全部情况下达到一致的低回归值,提出了一种替代方法 Minimax Regret Optimization(MRO),在适当的条件下,该方法可以在全部测试分布下达到一致地低回归值,尤其是在测试分布与训练数据相似性较低的情况下,MRO 可以作为处理分布偏移的有效方法。
Feb, 2022
为了解释机器学习的需求,在解释性人工智能研究方向上,决策树和增强学习的混合模型成为一个新的研究方向,其中使用了 MAP-Elites 方法来拓展模型,该方法在 OpenAI Gym 库的两个控制问题中表现良好。
Aug, 2022
本文提出一种能够在线预测的算法,能够在概率和对抗性设置下与未知复杂度的情境树专家相竞争。通过将结构风险最小化的概率框架纳入现有的自适应算法中,我们不仅可以稳健地学习存在随机结构的同时获得正确的模型阶数,并取得了能够与拥有强侧面信息的最优算法竞争的遗憾边界,从而提供了对模型和随机性同时适应性的第一个具体保证。
May, 2018
本文研究了提升决策树和决策桩的对抗性稳健性问题,并提出了一种快速计算精确的 min-max 鲁棒损失和测试误差的方法,并给出了一个高效的集成优化算法;同时,为提升树提出了一种基于上界的对稳健损失的优化算法,该方法在 MNIST,FMNIST 和 CIFAR-10 数据集上均取得了领先的稳健测试误差率,竞争力可与可证稳健卷积网络媲美。
Jun, 2019
本文针对 CIFAR-10 图像分类任务,评估两种著名的神经进化算法(DENSER 和 NSGA-Net)找到的模型的对抗鲁棒性,结果表明,当这些模型遭受迭代攻击时,它们的精度通常会降至或接近零,而 DENSER 模型则对 L2 威胁模型表现出一定的抵御力,同时观察发现,对输入数据进行的一些预处理技术可能会加剧扰动,从而危害网络的性能。因此,自动设计网络时不应忽视这种影响,尤其是在容易受到对抗攻击的应用程序中。
Jul, 2022