May, 2023

针对有限样本的视觉 Transformer 组叠代二值化(GSB)

TL;DR本文提出了一种新的模型压缩方法,称为 Group Superposition Binarization (GSB),通过替换复杂张量乘法为简单的位运算,将全精度模型参数和激活表示为仅有 1 位的参数,来解决 Vision Transformer 模型训练样本少易过拟合和计算资源大的问题。针对 Attention 模块和 Value 向量信息丢失的问题,提出了 GSB 技术,并利用知识蒸馏技术缓解了模型压缩所带来的性能下降。在三个数据集的实验中,得到了优异的二进制量化效果。