关键词network architecture search
搜索结果 - 9
- 深度学习模型进化在网络架构搜索中的模式理解
对于 Candle 项目和 Nasbench-201 搜索空间中的一组模型,我们算法性地分析和定量地表征模型演化的模式。我们展示了模型结构的演化如何受到正则化进化算法的影响,描述了演化模式在分布式环境中的出现以及缓存和改进调度的机会。最后, - 使用平衡的超级神经网络学习 CNN 池化架构
通过分析 ResNet20 网络在 CIFAR10 实验数据集中使用不同 pooling 配置的训练性能,本文发现预定义下采样配置并非最优选择,可以通过神经网络架构搜索来优化。同时,本文建议采用平衡混合的 SuperNets,可以使权重模型 - ECCVUFO:统一特征优化
该论文提出了一种新的统一特征优化(UFO)模型,结合多任务学习、网络架构搜索等方法,极大方便模型的灵活部署,在保持大规模预训练精度的基础上,实现了模型体积缩小和预测精度提高。
- 贝叶斯神经网络的模型架构调整
本文提出一种新颖的网络架构搜索 (NAS) 方法,用于优化 Bayesian 神经网络(BNN)的精度和不确定性,同时减少推理延迟。与传统的 NAS 不同,该方法使用来自内部和外部分布的数据搜索模型的不确定性性能,从而可以在网络中搜索贝叶斯 - ICLR通过传播网络代码学习多用途神经结构
该研究提出一种新型的神经网络设计方法,即基于架构的优化方法(Network Coding Propagation),并探究其在多任务、多数据集上的适用性和表现,实现了单个神经网络在多个视觉任务上的自适应,极大提高了神经网络的效率和性能。
- 自动全景:协作式多组件架构搜索用于全景分割
本文提出了一种高效、协作且高度自动化的框架,基于现有的一次性网络架构搜索(NAS)范式,在统一的全貌分割管道中同时搜索用于骨干、分割分支和特征融合模块的所有主要组件,将单一任务 NAS 扩展到多组件场景中,并采用新提出的模块内搜索空间和问题 - 学习低精度图神经网络
本研究使用 Low Precision Graph NAS (LPGNAS) 方法进行 Deep Graph Neural Networks 的定点化,并通过 8 个不同的数据集分类实现了模型和缓冲区大小的显著降低,同时保持了精度。
- DEGAS: 可微分高效生成器搜索
本研究提出了一种名为 DEGAS 的新型策略,旨在通过差分架构搜索策略和全局潜在优化过程,有效地找到对抗生成网络(GAN)中的生成器,在此基础上,在 CTGAN 模型上优于原始成果,并在较短的搜索时间内比基于强化学习的 GAN 搜索方法获得 - 带有集成 Gumbel-Softmax 的可微架构搜索
本文提出一种可微分的网络架构搜索方法,使用集成 Gumbel-Softmax 估算器优化深度网络的构架和参数以实现同时保证高效和有效性的目标。实验证明,该方法可以高效地发现高性能 架构。