基于生长 - 修剪范式的神经网络合成工具 NeST
本文提出了一种新的深度学习框架,称为嵌套稀疏网络,它利用神经网络中的 n-in-1 类型嵌套结构,实现资源感知的多功能体系结构,可以满足不同的资源要求,并利用层次分类实现了多任务学习。此外,我们还提出了有效的权重连接学习和通道和层次调度策略,评估了我们的网络在多种任务中的性能。结果表明,嵌套稀疏网络相比现有方法具有更高的效率和竞争力。
Dec, 2017
通过基于熵的剪枝方法(NEPENTHE),该研究旨在减少过参数化的深度神经网络的深度,以减轻计算负担,并在不影响性能的情况下线性化部分层。
Apr, 2024
本研究提出了一种名为 “生成综合” 的新方法,它可以自动生成高度有效的深度神经网络架构,该方法可以广泛应用于移动和其他消费设备的边缘场景中,目的是加速和改进深度学习模型的构建,并提高模型效率和能源效率。
Sep, 2018
本论文旨在将神经架构搜索的问题从单路径和多路径搜索扩大到自动混合路径搜索。我们提出了一种新的连续架构表示方法,利用稀疏超网络和稀疏性约束来实现自动混合路径搜索。同时,我们采用了分层加速的近端梯度算法来优化所提出的稀疏超网络,并在卷积神经网络和循环神经网络搜索中进行了广泛的实验,证明了该方法能够搜索到紧凑、通用和强大的神经结构。
Jul, 2020
通过维护一个优化的搜索空间子集的神经搜索空间演化(NSE)方案,引入可学习的多分支设置,实现了神经架构设计的自动化和优化,以在 ImageNet 上实现优异的表现和响应延迟限制。
Nov, 2020
本论文提出了一种基于大脑多尺度拓扑结构的多尺度进化神经架构搜索算法 (MSE-NAS),通过基于神经激发的间接评估函数 (表示不同矩阵 RDMs) 演化单个神经元操作,从而得到具有卓越可扩展性和迁移性的 SNN 架构。实验结果表明,该算法在静态数据集 (CIFAR10, CIFAR100) 和神经形态数据集 (CIFAR10-DVS 和 DVS128-Gesture) 上均取得了最新技术水平 (SOTA) 的性能表现,而不需要训练,同时不影响在不同尺度上的生物解释性。
Apr, 2023
提出了一种新方法 TissueNet,它通过独立堆叠设计的基本构件来直接构建紧凑的神经网络,无需额外的判断条件,可以实现相当的分类准确度,同时可以节省高达 80% FLOPs 和 89.7%参数,是一种神经网络压缩的新方法。
May, 2022
本文提出了一种适应性结构发展的 SNN 方法,引入树突棘突触可塑性、神经元修剪和突触再生,通过神经元修剪、突触限制和突触再生等机制,检测和移除了 SNN 的大量冗余,实现了优化压缩并降低网络能耗。在实验中表明,该方法可以在不同任务中学习适当的压缩率并显著降低网络能耗。
Nov, 2022
本文提出 NetAdaptV2,通过三项创新工作平衡各个步骤的时间并支持非可微分搜索指标,进而加速神经结构搜索并提高神经网络性能。
Mar, 2021
本文提出一种方法在深度神经网络训练期间同时优化网络结构和权重参数的概率分布,可用于解决多种网络结构优化问题,包括层次选择、单元类型选择和连接选择,实验结果表明该方法能够找到适当且具有竞争力的网络结构。
Jan, 2018