- 使用隐式神经表示的点云压缩:一个统一框架
本论文介绍了一个能够处理几何和属性组件的点云压缩框架,利用两个基于坐标的神经网络来隐式表示体素化的点云,通过将空间划分为小的立方体并专注于非空立方体内的体素来重建原始点云的几何和属性组件。实验结果表明,与最新的 G-PCC 标准中采用的八叉 - ACLLLMs 的手术特征空间分解:为什么,何时和如何?
低秩近似在大型语言模型中的应用及其对性能和模型偏差的影响的实证研究。
- 特征扩展与增强的压缩对于类别增量学习的应用
我们提出了一种新算法,通过使用我们的 Rehearsal-CutMix 方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在 CIFAR 和 ImageNet 数据集上进行的大量实验证明,我们的方法在不同的 - 通过线性层组合的低秩引导训练实现结构保留的网络压缩
本研究论文介绍了一种名为低秩引导训练(LoRITa)的压缩技术,通过组合线性层和使用奇异值截断来促进低秩性,并且在推理时无需改变结构或进行额外的优化,通过实验证明了其有效性,并与其他主流结构剪枝方法相比在 FLOPs 和参数减少方面取得了竞 - ICML离散傅里叶变换的参数高效微调
通过 Fourier 变换进一步压缩可训练参数,用于精细调整基础模型,以达到与 LoRA 相当甚至更好的性能表现,但参数数量更少。
- 通过神经架构搜索对预训练语言模型进行结构修剪
基于预训练语言模型和神经架构搜索的结构修剪方法,通过多目标策略实现对子网络的灵活压缩,提高模型效率。
- 变压器辅助的语义通信
通过使用 transformer 结构进行特征提取,以实现图像压缩和紧凑表示,从而优化语义通信的质量和带宽利用效率。
- Shears:具有神经低秩适配器搜索的非结构稀疏
通过引入新颖的 Shears 方法,结合成本效益的稀疏性和神经低秩适配器搜索算法,可以进一步提高参数高效微调方法的效率。实验结果表明,与其他方法相比,Shears 方法在达到高稀疏水平的同时,提高了精度或仅稍微降低精度,并利用单个 GPU - 压缩线性地表现智能
通过研究语言模型作为数据压缩器,我们发现大型语言模型的智能,通过平均基准分数与其压缩外部文本语料库的能力几乎呈线性相关,并且压缩效率作为从原始文本语料库中派生的无监督度量,可作为与模型能力相关的可靠评估措施。
- 超定基的大型语言模型的量化
基于 Kashin 表示原理,我们引入了一种数据量化算法,通过将给定的向量、矩阵或张量分解为两个因子,其中第一个因子具有小的无穷范数,而第二个在乘以正交矩阵后也具有相似的限制范数。通过分解后的因子条目意外地集中在几个峰值附近,允许我们有效地 - 自监督数据集压缩:压缩就是你所需的
基于模型信息性对原始数据集预训练的压缩阶段进行自我监督压缩,并利用大型预训练模型的潜力,提出了 SC-DD 框架,相对传统的监督学习方案,它在数据压缩和恢复方面带来了更多信息的压缩和恢复能力,并在 CIFAR-100、Tiny-ImageN - CVPRNeRFCodec:神经特征压缩与神经辐射场相结合的高效内存场景表示
通过使用非线性转换、量化和熵编码实现记忆高效的场景表示,我们提出了 NeRFCodec ,这是一个端到端的 NeRF 压缩框架,它利用预训练的神经 2D 图像编解码器对特征进行压缩,从而使得我们能在 0.5 MB 的内存预算下实现高质量的新 - 聚类大数据的收敛时间与准确度权衡
研究在大型数据集上 k-means 和 k-median 聚类的理论和实际运行限制,通过快速压缩数据并在压缩表示上进行聚类,提供了有效聚类的理论和实践蓝图。
- D'OH:仅解码的随机超网络用于隐式神经表示
通过运行时解码器的超网络 (D'OH) 在单个实例信号中初始化深度隐式函数的策略,提供了一种自然的方法来改变神经表示的内存占用,而无需在备选低速率结构空间上进行昂贵的神经架构搜索。
- 基于行级注意力的高光谱图像的深度无损和近无损预测编码
本文提出了一种新型预测神经网络 LineRWKV,利用 Transformer 的表示优势和递归神经网络的线性复杂度和递归实现,来压缩航天器上的高光谱图像,并在 HySpecNet-11k 数据集和 PRISMA 图片上进行实验证明了 Li - ICLR加速需求:一种修剪变换器的方法
一种用于提高预训练变换器体系结构效率的 OPTIN 框架,通过中间特征蒸馏捕捉模型参数的长程依赖(称为轨迹),在不需要重新训练的情况下在自然语言、图像分类、迁移学习和语义分割任务方面产生最先进的结果。同时,在满足 FLOP 限制的情况下,O - 高斯图像:通过二维高斯喷洒的 1000 帧每秒图像表示和压缩
通过 2D 高斯扩散的方式,我们提出了一种开创性的图像表示和压缩范式,名为高斯图像。与 INRs 相比,我们的方法在表示性能上不逊色,并且具有最低 3 倍的 GPU 内存使用和 5 倍的拟合时间,同时提供 1500-2000 FPS 的更快 - 一种新的体数据隐式神经表示
提出了一种新的隐式神经表示压缩方法,利用 Lanczos 降采样方案、SIREN 深度网络和 SRDenseNet 高分辨率方案,实现了高压缩比和良好的图像重建质量,同时降低了训练时间和 GPU 内存成本。
- 流式对话:通过最小损失的长上下文压缩实现长时间对话学习
通过将长对话历史压缩为最少损失的会话关注点(conv-attn sinks),我们的方法大幅减少了计算复杂度,并分别设计了短期记忆重构(SMR)和长期记忆激活(LMR)的学习策略,使得该方法在对话任务中优于强基线,并实现了 4 倍加速和 1 - 面向事件相机的基于流的视觉流压缩
该研究引入了一种基于流的方法,用于实时异步压缩事件流数据的生成,通过利用实时光流估计来预测未来事件,从而显著减少数据传输量,并展示了该方法在不同数据集上实现了平均 2.81 的压缩比,与 LZMA 压缩结合使用可以实现 10.45 到 17