关键词light-weight architectures
搜索结果 - 2
- 增强空间上下文的潜在图注意力
本文介绍了一种计算效率高且模块化的框架 ——Latent Graph Attention(LGA),该框架能够将全局背景信息融入现有架构中,特别是能够使小型架构的性能接近大型架构,从而使轻量级架构在计算能力和能源需求较低的边缘设备中更加有效 - 简单为上,简单架构超越深度和复杂架构
提出了一种简单的卷积神经网络架构 (SimpleNet),在保持计算和内存效率的同时,具有与更复杂的 CNN 相媲美的性能,在多个基准测试中表现出色,包括 CIFAR-10,MNIST,CIFAR-100 和 SVHN,甚至在 ImageN