矩阵神经网络
本研究提出了一种使用矩阵而非向量表示信息的深度神经网络分布式表示方法,并衍生出若干新型深度网络结构,展示其在手写数字识别、人脸重构、序列学习、EEG 分类和基于图像的节点分类等任务中的高效性和紧凑性。
Mar, 2017
本文提出了一种将全局结构化计算形式化整合到深度计算架构中的方法,其核心是开发了一种新的基于矩阵变化的 backpropagation 理论和实践,该方法广泛适用于机器学习或计算感知问题,我们在 BSDS 和 MSCOCO 基准测试中执行视觉分割实验,结果表明端到端训练的基于第二阶池化和归一化切割层的深度网络,使用矩阵反向传播优于没有利用全局层的对应网络。
Sep, 2015
稀疏矩阵计算是科学计算中无处不在的。近期对科学机器学习的兴趣使得人们自然而然地问及稀疏矩阵计算如何利用神经网络。然而,多层感知机(MLP)神经网络通常不适用于图形或稀疏矩阵计算。本文旨在为数值线性代数的读者介绍图神经网络(GNNs),并提供具体示例以说明如何使用 GNNs 完成许多常见的线性代数任务。同时,我们专注于使用计算核心如矩阵 - 向量乘积、插值、松弛方法和连接强度等迭代方法。期望通过本文使计算科学家了解如何将 GNNs 用于适应与稀疏矩阵相关的计算任务,并希望这种理解能够促进经典稀疏线性代数任务的数据驱动扩展。
Oct, 2023
引入一种基于 H 矩阵结构的新多尺度人工神经网络,可将其推广到非线性情况,并且能够高效逼近非线性薛定谔方程和 Kohn-Sham 密度泛函理论等离散非线性映射。
Jul, 2018
我们提出了一种简便的无矩阵神经网络结构用于多重网格方法。该结构简单到可以在不到五十行的代码中实现,但包含许多不同的多重网格求解器。我们认为,固定的神经网络没有密集层不能实现高效的迭代方法。因此,标准的训练协议不能生成竞争优势的求解器。为了克服这个困难,我们使用参数共享和层序列化。所得到的网络可以在数以千计未知元的线性问题上进行训练,并在百万未知元的问题上保持其效率。从数值线性代数网络的训练角度来看,它对应于找到几何多重网格方法的最佳平滑器。我们在几个二阶椭圆方程上演示了我们的方法。对于测试的线性系统,与基本线性多重网格方法的 Jacobi 平滑器相比,我们得到的误差传播矩阵的谱半径较小,是其 2 到 5 倍。
Feb, 2024
本研究提出了一种新的框架 NeuralMatrix,可以在一个单一的通用矩阵乘法加速器上计算多功能的深度神经网络,同时在性能和特定应用的加速水平方面与 CPU 和 GPU 等通用处理器相比具有优势。
May, 2023
本研究提出了使用矩阵积算子 (MPO) 来代替线性变换表示深度神经网络的方法,该方法可以最大限度地减少可变参数数量而不影响其预测能力,并在多个典型的神经网络上证明了其有效性和高效性。
Apr, 2019