StrassenNets:带有乘法预算的深度学习
研究二值化训练和量化方法在神经网络训练中的应用,通过在 MNIST、CIFAR10、SVHN 三个数据集上的实验证明,这种方法不仅不会降低分类性能,反而可以实现比标准随机梯度下降训练更好的性能
Oct, 2015
该论文通过使用 AdderNets,将深度神经网络中的大量乘法转化为更便宜的加法来降低计算成本。通过特殊的反向传播方法和自适应学习率策略,在卷积层中消除任何乘法,以实现更好的性能优化。使用 ResNet-50 在 ImageNet 数据集上,无需进行任何乘法运算就能达到 74.9%的 Top-1 精度和 91.7%的 Top-5 精度。
Dec, 2019
通过在三个基准数据集上使用三种不同的格式(浮点数、固定点和动态固定点)进行训练,评估乘法精度的影响,研究发现,即使在训练神经网络时使用 10 位乘法,非常低的精度也足够运行和训练最新的神经网络。
Dec, 2014
本文提出了一种新的基于 SPN 和深度神经网络的概率深度学习模型,称为 RAT-SPNs,该模型具有充分评估数据似然,任意边缘化和条件任务的优势,并且仍然可解释为生成模型,并保持了良好的校准不确定性,从而使其高度鲁棒性和自然地检测异常值和独特样本。
Jun, 2018
本研究提出了一种新的框架 NeuralMatrix,可以在一个单一的通用矩阵乘法加速器上计算多功能的深度神经网络,同时在性能和特定应用的加速水平方面与 CPU 和 GPU 等通用处理器相比具有优势。
May, 2023
本文提出了一种自适应分层比例缩放的位编码量化(ALS-POTQ)方法和无乘积 MAC 的方法(MF-MAC),可以消除线性层中所有 FP32 乘法和重量偏差校正和参数化比率裁剪技术来提高稳定性和提高准确性,从而获得比现有方法更高的能源效率和准确性。
Feb, 2023
介绍了一种学习算法,用于高效的近似矩阵乘法,其常用特性是需要零次乘积添加操作。实验表明,它比现有方法快 10 倍以上,而且比确切矩阵积快 100 倍。此外,核心操作 - 混合哈希,平均和字节混洗,可以是机器学习的更有前途的构建块,而不是近期研究和硬件投资重点的稀疏、因式分解和 / 或标量量化矩阵乘积。
Jun, 2021
通过将线性操作分解为较简单线性操作之和的乘积,我们提出了一种可以减少深度神经网络可训练模型参数数量的通用框架,用于各类神经网络结构,并展示了基于该框架的算法在 MNIST 和 Fashion MNIST 数据集上的表现。此外,我们探究了一种新的卷积层变换方法,不再需要卷积操作,这种方法可以任意改变可训练参数数量,并通过使用该框架在 MNIST 数据集上的实验验证了可用更少的参数获得更高的准确率的优点。
Sep, 2018
本文通过在大规模 CPU 机器上评估近似矩阵乘法的两种采样方法,提供了负面的理论分析,这表明前馈逼近是可扩展性的障碍。作者指出基于哈希的节点选择方法不能扩展到大量层数,并确定了未来研究的方向。
Jun, 2023
提出了一种新型深层架构 —— 求和积网络(SPN),通过学习和推理,SPNs 能够实现比标准深层网络更快和更准确的图形建模推理,例如在图像完成任务方面表现优异。
Feb, 2012