神经形态语言模型中的权重稀疏性与活动稀疏性相辅相成
通过对参数进行稀疏化,结合稀疏激活在递归神经网络中的相乘作用,实现了对神经网络计算成本高效率的优化,可以应用于神经形态计算设备上,同时不牺牲任务性能。
Nov, 2023
基于脉冲神经网络(SNN)的结构稀疏化,提出了一种基于卷积核活动水平的结构删减方法,通过动态调整网络结构使其更适应当前目标任务,提高模型的适应性、降低计算负载和加速推理过程。
Jun, 2024
本文提出了一个利用稀疏性来增强分类能力的模型,在该模型中,利用稀疏活动和稀疏连接来实现分类,实现这一目标的工具是一种稀疏度投影算子,该算子可以找到给定向量的最接近预定义的稀疏向量。在理论部分中开发了一种全面的理论来进行这种投影,并证明该投影在几乎所有地方均可微分,因此可以作为平滑的神经元转移函数实现。在 MNIST 数据库的实验中,分类性能可以通过稀疏活动或稀疏连接提高,并且两者的组合将显著优于经典的非稀疏方法。
Mar, 2016
对神经元网络进行压缩,能够在不影响功能的情况下提高运行效率。文章提出了一种深度学习模型压缩技术,通过针对网络的每个可压缩部分,实现神经元模型在 MNIST、N-MNIST、CIFAR10 和 CIFAR100 数据集上的模式识别任务,并取得了更好的结果。
Nov, 2019
通过实现神经元活动的动态稀疏化,提出了一种基于门控循环单元(GRU)并适用于新颖的节能神经形态硬件的递归神经网络(RNN)的通信稀疏离散化解决方案。该模型在不影响任务性能的前提下实现了高效,与现有最先进的循环神经网络模型在语言建模等实际任务中表现同样出色。
Jun, 2022
通过引入新颖的 Lyapunov Noise Pruning (LNP) 算法和利用各类散度来设计一个稳定的、计算效率高的、适用于不同任务的稀疏的异质 RSNN 模型,本文展示了相对于传统的基于活性剪枝的方法,该任务无关的方法可以增加 RSNN 的计算效率和预测性能。
Mar, 2024
许多成功的神经网络结构中的核心组件是一个具有非线性激活函数的两个全连接层的 MLP 块。我们在本文中对展示出激活稀疏性的 MLP 层的 PAC 可学习性进行了形式化研究,并呈现了多种实验结果,表明这类函数相对于非稀疏的对应物具有计算和统计上的优势。我们希望对 “激活稀疏” 的网络有更好的理论认识,以便能够在实践中利用激活稀疏性。
Jun, 2024
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023
本研究探讨稀疏神经模型在自然语言处理中的重要性,使用出租车欧几里得范数对稀疏度进行量化,发现输入频繁的词在激活方面较为集中,而目标词汇的激活由分散变得集中,并且功能词梯度比内容词梯度更集中。
Jul, 2019
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021