Mathieu Vu, Emilie Chouzenoux, Jean-Christophe Pesquet, Ismail Ben Ayed
TL;DR使用集成学习方法和聚合方法相结合的浅层神经网络在少样本类别增量学习问题上表现出良好性能。
Abstract
ensemble learning leverages multiple models (i.e., weak learners) on a common
machine learning task to enhance prediction performance. Basic ensembling
approaches average the weak learners outputs, while more sophisticated ones
stack a machine learning model in between the weak learner
通过分析异质性模型,我们探究了不同培训集合的神经网络集成对子群体表现的影响。发现使用同质集成,即使所有单独模型使用相同的训练集,架构和设计选择,仍然可以获得令人信服和有力的最坏 k 值和少数群体的表现提升。我们的研究证明,简单的神经网络集成可以是减轻不同 DNN 分类器的不同影响的有效工具,从而遏制算法伤害。
介绍了一种称为框架平均的通用框架,用于使现有神经网络体系结构对新的对称性类型具有不变性或等变性。该框架建立在团体平均算子之上,并通过使用小的子集来取代整个团的平均算子,从而保证较低的计算成本。通过使用框架平均,提出了一类称为通用图神经网络(GNNs)的新模型,实现了几个应用程序(包括点云正常估计、超越 2-WL 图分离和 N 体动力学预测),并达到了所有这些基准测试的最高成绩。