深度扩展网络:利用图理论构建高效深层网络
神经网络的稀疏性和强连通性是扩展属性,对于在资源受限平台上使用递归神经网络进行实时序列学习任务来说,剪枝是必要的。本研究探讨了保持递归网络的大型谱间隙和层级扩展属性的方法,以及关于它们双分层图特性的时间展开递归网络图研究。通过 MNIST、CIFAR-10 和 Google 语音指令数据的实验结果表明,扩展图特性对于保留递归神经网络和长短期记忆网络的分类准确性至关重要。
Mar, 2024
通过采用一种新颖的稀疏连接结构,类似于树根,在利用层间滤波器依赖性的稀疏性的基础上,我们提出了一种新的方法来创建计算效率高且紧凑的卷积神经网络(CNN)。我们在 CIFAR10 和 ILSVRC 数据集上训练采用这种方法的 CNN 体系结构,结果表明,与基线架构相比,在较少的计算量情况下能实现类似或更高的准确率和更少的参数数量和浮点运算数。
May, 2016
本文研究通过连接层数的增加来增强深度网络的表达效率,应用于序列处理任务中的卷积神经网络,证明了深度和连接都能提高表现效果,并将这一发现应用于深度网络设计。
Mar, 2017
该研究提出 Dense Convolutional Network (DenseNet) 模型,使用每一层之前的所有特征图作为输入,解决了梯度消失的问题,促进了特征重用,并在目标识别领域的四个竞争性基准上显着提高了性能效率。
Jan, 2020
对图神经网络进行研究,通过看其在无穷大层神经元的情况下的渐进行为,探讨了 GCNs 的表达能力,发现 GCNs 的表达能力与其底层图的拓扑信息相关,提供了一种基于权值归一化的方法,增强了真实数据下 GCNs 的性能。
May, 2019
数据的指数增长引发了对机器学习研究和工业使用的计算需求。深度神经网络的稀疏化可以创建对复杂数据进行简化的表示。本文提出了一个用于 TensorFlow 的 RadiX-Nets 测试套件,通过测试 RadiX-Net 性能来简化可扩展模型的处理,揭示网络拓扑、初始化和训练行为之间的关系。我们还遇到了训练不一致且准确度较低的 “奇怪模型”,而相似稀疏度的模型则训练良好。
Nov, 2023
通过在边上交换信息,图神经网络对图结构化数据进行操作。然而,信息过于压缩问题限制了这种信息传递范式,可能导致信息丢失。为了解决这个问题,最新的研究探索使用低直径高连通度的稀疏图 —— 扩展图来进行信息传递。然而,现有的扩展图传播方法只考虑了两两交互,忽略了复杂数据中的高阶结构。为了探索在利用扩展图的同时捕捉这些高阶相关性的好处,我们引入了高阶扩展图传播。我们提出了两种构建二分扩展图的方法,并在合成数据集和真实世界数据集上评估了其性能。
Nov, 2023
本研究提出一种算法,可以确定生成 RadiX-Nets,这些稀疏的深度神经网络拓扑结构相比 X-Net 拓扑结构更加多样化,同时保留了 X-Nets 所需的特性,基于长期观察到的稀疏神经网络可以达到与稠密对应物相同的表达能力的功能分析猜想。
Apr, 2019
该研究使用扩展图形传递信息来提出了一种名为 EGP 的图神经网络,以解决全图分类或回归任务中的挑战,同时避免病态行为和过度压缩等问题,为解决 GNN 中的过度压缩问题开辟了一条新途径。
Oct, 2022
该论文介绍了一种称为 DenseNet 的神经网络架构,通过将每一层与其他每一层之间连接起来,可以解决传统卷积神经网络中权重消失和特征重用问题,在目标识别领域中表现优异。
Aug, 2016