深度神经网络的滑动窗口求和算法
滑动窗口求和算法在深度神经网络的训练和推理中取得了成功。本文通过对滑动窗口卷积技术的广泛研究,作为常用的通用矩阵乘法(GEMM)卷积的一种更高效的替代方法,解决了内存膨胀问题,并在二维卷积中展示了显著的加速效果。我们在多种实现方式上探索了该技术的性能,包括针对特定滤波器尺寸的自定义内核。结果表明,在 CPU 甚至专用硬件加速器上,滑动窗口计算内核可以优于基于 GEMM 的卷积。这将推动 AI 在低功耗和低内存设备上的更广泛应用,无需专用硬件。同时,我们还讨论了模型压缩方法和优化网络架构与滑动窗口技术的兼容性,鼓励进一步在这些领域开展研究。
Oct, 2023
本文提出两种新型基于 GEMM 的算法,分别只需要额外的 O (MHW) 和 O (KW) 的空间,显著降低了 DNN 卷积的空间开销,适用于内存受限的嵌入式系统,并且实验表明我们的低内存算法和最好的图案构建方法一样快,尽管需要的额外内存只相当于后者的一小部分。
Sep, 2017
研究表明,在 DNN 中采用更广泛的 Winograd 算法可以显着提高浮点(FP)精度,在 fp16 中,这种方法可以使图像识别准确度提高 6.5 倍,同时保持相同数量的元素逐个乘法运算。
May, 2019
该文章介绍了一种名为 TaLK Convolutions 的自适应卷积操作,通过预测汇总内核的大小而不是使用固定大小的内核矩阵,使序列编码过程的时间复杂度为 O (n),从而有效地改善了注意力 / 卷积算法等方面的问题,这种方法对于大规模标准机器翻译、抽象摘要和语言建模数据集的效果具有显著的改进。
Feb, 2020
本文提出了一种新的分解 Winograd 方法(DWM),可以显著提高 Winograd 算法在卷积神经网络中的应用范围(包括大尺寸核和大步长卷积),从而在保持数值精度的同时,减少计算量和提高性能。
Feb, 2020
基于随机卷积的特征扩展方法在动态功能连接领域比滑动窗口方法更有效,在模拟数据和实际性别差异研究中均取得更好的结果。该研究提出了更全面的卷积功能连接计算模型,其中滑动窗口方法是该模型的特例,从而为动态功能连接的研究方法打开了巨大的潜力。
Jun, 2024
本研究分析了深度神经网络中卷积计算的 numerical accuracy,以 Winograd algorithm 为基础设计了限制误差的 modified algorithm,并提出了 Huffman 编码和 mixed-precision convolution 等多种方法,能显著降低误差并提高计算效率。
Mar, 2018
通过将线性操作分解为较简单线性操作之和的乘积,我们提出了一种可以减少深度神经网络可训练模型参数数量的通用框架,用于各类神经网络结构,并展示了基于该框架的算法在 MNIST 和 Fashion MNIST 数据集上的表现。此外,我们探究了一种新的卷积层变换方法,不再需要卷积操作,这种方法可以任意改变可训练参数数量,并通过使用该框架在 MNIST 数据集上的实验验证了可用更少的参数获得更高的准确率的优点。
Sep, 2018