Jul, 2023

增强空间上下文的潜在图注意力

TL;DR本文介绍了一种计算效率高且模块化的框架——Latent Graph Attention(LGA),该框架能够将全局背景信息融入现有架构中,特别是能够使小型架构的性能接近大型架构,从而使轻量级架构在计算能力和能源需求较低的边缘设备中更加有效。在透明物体分割、去雾图像恢复和光流估计三个应用中,LGA模块的引入改善了性能。