Feb, 2023
A^2Q:面向图神经网络的聚合感知量化
$\rm A^2Q$: Aggregation-Aware Quantization for Graph Neural Networks
TL;DR本文提出了一种基于图神经网络特征的聚合感知混合精度量化方法($
m A^2Q$), 通过学习自适应的节点位宽来实现模型压缩,模型应用于节点与图级别任务时,相较于FP32模型可以达到高达18.6x压缩比且精度几乎不降低。同时,本文提出的方法相较于当前最先进的量化方法,在节点级别和图级别任务中可分别达到11.4%和9.5%的精度提升,以及专用硬件上可达到2倍的加速比。