关键词computational overheads
搜索结果 - 5
- 开放词汇分割的可转移和原则性效率
通过利用较小、训练成本更低的模型,本论文的核心策略旨在实现与基于大型视觉语言基础模型的先前开放词汇分割工作相媲美甚至更好的性能,以解决开放词汇分割(OVS)方法面临的高计算开销问题,并在各种 OVS 基准测试中展示了我们在分割准确性和计算成 - 分布式学习算法性能评估研究
分布式学习是一种实际的方法,用于从分散的数据中训练模型。分布式学习算法(如 FedAvg、FedProx、FedYogi、FedAdam、SCAFFOLD 和 FedDyn)的综合性能评估揭示了单一算法在不同性能指标上表现并不最佳,同时也存 - 机器学习中的张量网络
这篇论文介绍了张量网络及其在机器学习中的应用,张量网络通过分解大规模数据矩阵来实现数据的近似表达与计算的降维,是一种常用的数据处理技术。
- IJCAIARMIN: 面向更高效、轻量级的循环记忆网络
本文利用 Auto-addressing and Recurrent Memory Integrating Network (ARMIN) 更加轻量级和高效地解决了神经网络中针对序列处理任务所面临的关于内存寻址机制和计算负载的问题。
- IJCAIPlay and Prune: 适应性滤波剪枝用于深度模型压缩
本文提出了基于最小 - 最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对 CNN 模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了 VGG-16 的参数数量和 FLOPS。