BriefGPT.xyz
大模型
Ask
alpha
关键词
pruning schemes
搜索结果 - 3
压缩深度学习模型对抗鲁棒性基准测试
对于基础模型在受挫折性输入下的修剪版本的影响进行了研究,发现在提升普适性、压缩和更快的推断时间方面,模型压缩虽然具有其独特的优势,但不会削弱对抗性鲁棒性。
PDF
a year ago
边缘计算中基于抽奖票剪枝的增强隐私效率联邦学习
提出了 Fed-LTP,它是一种高效的隐私增强的联邦学习框架,能够通过稀疏到稀疏训练解决资源限制问题,并使用两种修剪方案(即基于权重的修剪和迭代修剪)生成被修剪的全局模型,拥有更好的通信、计算和存储效率,并采用基于拉普拉斯机制的模型验证实现
→
PDF
a year ago
ICLR
动态模型剪枝与反馈
提出一种新的模型压缩方法,通过允许稀疏模式的动态分配和合理使用反馈信号使得模型可以在单一训练过程中生成一个高性能的稀疏模型,且其性能超越了现有的所有修剪方案生成的模型,在 CIFAR-10 和 ImageNet 数据集上进行验证。
PDF
4 years ago
Prev
Next