使用普通矩阵乘法进行并行多通道卷积
本文提出两种新型基于 GEMM 的算法,分别只需要额外的 O (MHW) 和 O (KW) 的空间,显著降低了 DNN 卷积的空间开销,适用于内存受限的嵌入式系统,并且实验表明我们的低内存算法和最好的图案构建方法一样快,尽管需要的额外内存只相当于后者的一小部分。
Sep, 2017
使用 Indirect Convolution 算法实现卷积操作,避免了传统 GEMM 算法中需要进行 im2col 转换所带来的数据重排和内存开销,并可以适用于更大的卷积核、填充、步幅和膨胀率。
Jul, 2019
提出了一种名为 im2win 的内存高效数据转换算法,能够实现连续的内存访问和数据重用,从而大大降低内存开销,同时通过各种优化实现高性能二维卷积,平均可以将内存开销降低到 41.6%,相对于 im2col 和不使用数据转换,性能平均提高了 3.6 倍和 5.3 倍。
Jun, 2023
本文提出了基于 im2win 的卷积范式,旨在通过持续的内存访问提高性能,并经过了优化技术的改进,与其他基于 cuBLAS 和 cuDNN 的卷积实现相比,内存占用少 23.1% 至 32.8%,性能提高了 3.5 倍至 155 倍。
Jun, 2023
本文提出一种具有内存效率的卷积方法,即 MEC,使用简单且高效 / 紧凑的方式降低输入矩阵的内存开销,提高卷积运算速度,显著减少内存消耗,在移动设备和服务器平台上都具有良好的加速效果,适用于卷积运算的深度神经网络模型。
Jun, 2017
本研究提出了一种新的框架 NeuralMatrix,可以在一个单一的通用矩阵乘法加速器上计算多功能的深度神经网络,同时在性能和特定应用的加速水平方面与 CPU 和 GPU 等通用处理器相比具有优势。
May, 2023
本文介绍了针对 x86 体系结构的直接卷积核和动态编译方法实现的 JIT 优化内核,该内核可在多节点下高效执行最新的图像识别任务,使单机和多节点运行时高效地通过 CPU 执行任务的高吞吐量。
Aug, 2018
本文提出了一种新颖的多列互学习策略(McML)以改善人群计数中规模表示的不变性,指出现有的多列网络存在显著冗余参数的问题,且采用异步参数更新过程的 McML 可以更有效地减少参数的冗余性并改善泛化能力,实验证明该方法在各项挑战性基准上显著提高了原有的多列网络,同时优于其他最先进的方法。
Sep, 2019
通过扩展和优化快速 Winograd 级卷积算法,我们在 CPU 硬件上最大化 CPU 利用率及多核可伸缩性,处理了视频和体积图像分析中的空时特征,并证明了与之前的最先进技术相比,吞吐量提高了 5 到 25 倍。
Nov, 2016
本文提出了一种名为 CLC 的广义卷积操作,即使用输入通道的子集来计算输出通道,该操作包括深度卷积和分组卷积,这可以用于构建新的卷积块 CLC Block,从而建立更高效的 CNN 模型 clcNet,并在 ImageNet-1K 数据集上进行测试。
Dec, 2017