Nov, 2021
图神经网络表示知识蒸馏
On Representation Knowledge Distillation for Graph Neural Networks
Chaitanya K. Joshi, Fayao Liu, Xu Xun, Jie Lin, Chuan-Sheng Foo
TL;DR通过对比实验,本文提出了一种新的基于图像对比度表示蒸馏的知识蒸馏方法,用于提高资源有效的图神经网络的表现,该方法通过保留全局拓扑结构与对比学习使轻量级图神经网络的性能和稳健性得到了提高。