本文研究了利用多样的专业 CNNs 集成对黑盒对抗实例检测的影响,并加强白盒对抗攻击的生成,证明了不同专业集成的多样性如何减轻黑盒和白盒对抗示例的风险,并通过 MNIST 和 CIFAR-10 等实验证明了使用该集成可以检测大部分已知的黑盒对抗实例,从而显著降低敌人的风险率,但会在一定程度上增加干净样本的风险率。此外,相对于普通 CNN 和普通 CNN 集成,我们展示了集成生成白盒攻击的成功率显著下降,突显了集成中多样性对于开发更健壮模型的有益作用。
May, 2020
本文通过介绍新的多样性度量方法介绍了一种新的模型集成方法,该方法特别适用于数据限制和协变量转移,可显著提高模型的多样性和泛化性能。
Nov, 2019
本文研究了集成技术在机器学习中的广泛应用,特别是在神经网络中多样性的确切角色、如何衡量它以及它如何促进神经网络集成算法的研究。在三种常用的损失函数和两种常用的模型组合策略的基础上,通过神经网络集成进行了实证验证。
Oct, 2021
通过研究深度神经网络的损失函数平面的同构性,我们证明了深度集合优于贝叶斯神经网络在提高准确度和对数据集变化的鲁棒性方面,并发现随机初始化的权重可以探索不同的函数空间而产生更多样的结果。
Dec, 2019
本研究通过多个神经网络的损失函数不相关来提高其对抗攻击的鲁棒性,提出了一种叫做多样化训练的方法,并发现该方法能够显著增强集合的对抗防御能力。
Jan, 2019
使用新型训练准则 DICE,提高深度集成模型的多样性并同时保持准确性,可以在 CIFAR-10 和 CIFAR-100 数据集上获得最新的最高准确率结果,并影响了校准、不确定性估计和在线协同训练。
Jan, 2021
通过对集成方法进行扰动,可以增加模型多样性并提升性能。
本文介绍了一种简单的方法来训练神经网络,使得每个测试查询时间内能够进行多元化的结构性预测,同时比现有方法具有更好的多样性和速度。在 2D 图像填充,3D 体积估计和流场预测等三个具有挑战性的任务中,我们的方法得到了量化的改进。
Aug, 2020
本论文介绍了一种基于 Deep Probabilistic Ensembles 的可扩展方法,该方法使用一个规则化的集合来近似 deep BNN。我们对大规模的视觉主动学习实验进行了一系列研究并在 CIFAR-10,CIFAR-100 和 ImageNet 数据集,以及 BDD100k 数据集上进行了语义分割的评估。我们的模型需要更少的训练数据才能实现竞争性能,并随着注释预算的增加而稳步提高。
Nov, 2018
我们在 Google Cloud 和 YouTube-8M 视频理解挑战的背景下,研究了控制 DNN 多样性的因素。通过使用集成方法、模型过拟合或丢弃等方法来促进 DNN 的多样性,并介绍了我们在 Kaggle 竞赛(以 Yeti 团队的名义参赛)中排名第 7 位的视频理解问题的解决方案。
Jul, 2017