关键词neural network ensembles
搜索结果 - 6
- 子网络集成
本论文介绍了一种低成本框架用于构建子网络集合,通过从已训练的母模型中采样、扰动和优化子网络的方式形成子网络集合,研究发现该方法可以显著提高训练效率、参数利用以及泛化性能,同时最小化计算成本,通过利用深度神经网络的潜力来构建更好的系统。
- 通过轨迹抽样进行神经网络集成的小批量训练
本篇论文探讨了使用小批量(minibatches)方法训练神经网络集合(NNEs)的高效方式,并在 MNIST 数据集上验证其可行性,得到了通常为两个数量级的计算时间提升。同时还强调了使用更长轨迹来表示 NNEs 的优势,既可获得更高的推断 - 自动化深度集成与不确定性量化
AutoDEUQ 使用深度神经网络和超参数搜索自动生成神经网络集合,并使用方差法将预测方差分解为数据方差和模型方差,这种方法在许多回归基准测试中优于几种现有的不确定性量化方法。
- ICML模糊效应如同集合:空间平滑以提高准确性、不确定性和鲁棒性
本文提出了一种名为 “空间平滑” 的方法,通过对卷积神经网络中相邻的特征点进行空间集成,以减少 Bayesian 神经网络(BNNs)在可靠结果需要预测大量次数的计算代价,实验证明该方法在一系列集合大小上提高了 BNNs 的准确性、不确定性 - 时间序列分类的深度神经网络集成
本文介绍如何在时序分类任务中使用神经网络集成算法,实现与当前最先进的基于非深度学习算法的分类器媲美的性能,并且首次达到了比 COTE 分类器更好的表现。
- MMX-CNN: 跨模态卷积神经网络适用于稀疏数据集
本文提出了一种新颖的跨模态卷积神经网络(X-CNNs),通过在更大规模的网络拓扑中处理梯度下降专用的 CNN,允许在网络的类似隐藏层之间进行无限制的信息流和 / 或权重共享,具有很好的泛化能力,最终表现优于标准 CNN 和 FitNet4