本文提出了一种基于深度学习的科学误差边界有损压缩器 SRN-SZ,利用超分辨率神经网络实现分层数据网格扩展模式,相较其他压缩器在相同误差边界下压缩率提高了 75%,在相同峰值信噪比下压缩率提高了 80%。
Sep, 2023
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017
本文提出并研究了分布保持有损压缩问题,旨在优化速率失真间的平衡,使重建样本符合训练数据的分布,并通过采用 Wasserstein GAN 和 Wasserstein 自编码器的组合等方法,进行了理论和实证分析。
May, 2018
我们提出了一个神经网络模型,能够在不牺牲重建质量的情况下,显著压缩大规模科学数据,并在公开的科学基准数据集和高分辨率气候模型数据集上进行了测试,达到了 140 的压缩比和可忽略的重建误差。
Jul, 2023
对机器学习和人工智能在高性能计算中的应用,数据压缩对模型质量的影响以及现代有损压缩方法的优势进行了系统评估,指出了指导将来使用和设计有损压缩器的关键见解。
Mar, 2024
在多标签场景中,本研究提出了一种新颖有效的组群双增强框架(GBE-MLZSL),以充分利用局部和全局特征,实现更准确和稳健的视觉语义投影,实验结果表明,GBE-MLZSL 可大幅胜过其他最先进的方法。
本文研究了在联邦学习中使用压缩和聚合方案来产生特定误差分布的方法,分析了基于分层量化实现准确误差分布的不同聚合方案,并提供了利用所提出的压缩方案在差分隐私应用中免费获得压缩的不同方法。我们的通用压缩方法可以恢复和改进具有高斯扰动的标准联邦学习方案,如 Langevin 动力学和随机平滑。
Oct, 2023
该研究提出了一个名为 GAN Slimming 的统一优化框架,将多种压缩方法与 GAN 最小二乘目标组合在一起,相比现有选项在压缩图像转换 GAN 方面表现优异,其中包括模型蒸馏,通道修剪和量化等几种主流压缩技术。
Aug, 2020
在分布式优化中,数据并行 SGD 是事实上的算法,但是通信瓶颈是一个持久性问题。本文介绍了 LASER 算法,它利用梯度的低秩结构,在噪声通道上高效传输,并在实际任务中相比基准表现更好。
通过统一的参数化权重转换和可微分计数器,提出了一个后训练模型大小压缩方法,可以同时进行有损和无损压缩,实现了稳定的 10 倍压缩比和短时间内 20 倍压缩比。
Aug, 2023