Apr, 2021

知识蒸馏的视觉语言模型压缩

TL;DR本文提出 VL distillation,使用知识蒸馏方法将基于 transformer 的大型 VL 模型压缩成小型 VL 模型,以提高图像字幕生成和视觉问答任务中的性能。