BriefGPT.xyz
Ask
alpha
关键词
memory footprints
搜索结果 - 2
大型可分离核注意力:重新思考 CNN 中的大型核注意力设计
通过将深度可分离卷积核的二维卷积核分解为级联的水平和垂直一维卷积核,提出了一种名为 Large Separable Kernel Attention(LSKA)模块的家族,用于减少计算复杂性和内存占用,同时在视觉注意力网络(VAN)中实现具
→
PDF
10 months ago
NIPS
网络量化中的迭代查找表训练
本研究介绍了一种叫做 LUT-Q 的训练方法,它可以学习一个字典并将每个权重分配给字典中的一个值,以减少深度神经网络的内存和计算需求。我们的实验结果表明,LUT-Q 比其他同种量化位宽的方法表现更好,并提出了一种无乘法器批归一化的算法。
PDF
6 years ago
Prev
Next