局部独立预测模型集合
本文研究了集成技术在机器学习中的广泛应用,特别是在神经网络中多样性的确切角色、如何衡量它以及它如何促进神经网络集成算法的研究。在三种常用的损失函数和两种常用的模型组合策略的基础上,通过神经网络集成进行了实证验证。
Oct, 2021
本文阐述了集成学习的一些基本概念,研究了如何优化集成学习的多样性来对抗敌对攻击,并提供了一些算法来学习如何生成高精度的集成预测。
Aug, 2019
本论文提出了一种集成多样性理论,阐明了多样性的本质及对各种监督学习场景的影响,揭示了多样性是集合偏差方差分解中的一个隐含维度,同时提供了一种自动识别可使偏差方差多样性分解成立的组合规则的方法。在此基础上,实验进一步说明了我们可以用该框架来理解当前流行的集成方法。
Jan, 2023
在这项工作中,我们提出了一种利用扩散概率模型(DPMs)来减轻简洁性偏见的集成多样化框架。我们展示了在特定训练间隔中,DPMs 能够生成具有新颖特征组合的图像,即使在训练时显示相关输入特征的图像。我们利用这一关键属性通过集成差异来生成合成的反事实情景,从而增加模型的多样性。我们展示了 DPM 引导的多样化足以去除对主要简洁性提示的依赖,而无需额外的监督信号。我们进一步通过几个多样化目标进行了实证量化,并最终展示了与依赖辅助数据收集的先前工作相当的改进的泛化和多样化性能。
Nov, 2023
深度学习中用深度集成方法提升神经网络的鲁棒性能,在大规模图片数据集中使用互信息指标 (OOD)的检测效果比单一模型的熵指标要劣 30-40%,使用集成多个分类器的检测得分对 Deep Ensemble OOD 检测性能有着更好的提升表现 。
Jul, 2022
通过对超参、架构、框架和数据集进行大规模实证研究,我们发现训练方法的差异会导致模型产生不同的泛化行为,从而在子域中表现更好,与其他模型的错误更不相关。这种多样性可以提高集成表现,并且连低准确度的模型也可以用来提高高准确度的模型。此外,我们发现训练方法的差异会使表示捕捉到有重叠但不是超集的特征集,将其结合可以提高下游性能。
Oct, 2021