- 视觉系统的资源高效感知
应对高分辨率图像处理中的计算挑战,提出了一种利用内存高效的基于块处理的框架,通过全局上下文表示和局部块信息实现对图像内容的全面理解,并在不受内存限制的情况下对超高分辨率图像进行训练,在分类、目标检测和分割等七个基准测试中取得了卓越性能,甚至 - JORA:JAX 张量并行 LoRA 检索增强微调库
通过使用分布式训练,借助 JAX 的即时编译(JIT)和张量分片,我们引入了一种新的 PEFT 兼容的 Llama-2 模型微调框架,以有效管理资源,从而实现了加速微调并减少内存需求,从而显着改善了用于复杂 RAG 应用的 LLM 的可扩展 - 增强连续强化学习中的世界模型回放
通过引入一种扩充缓冲区的方法来缓解记忆约束,将其与基于模型的强化学习算法结合使用,从而在持续学习中提高效果。我们在 Procgen 和 Atari RL 基准测试中评估了这种方法的有效性,并证明了在潜在世界模型的背景下,用于回放缓冲区的分布 - 基于联邦学习的在线模型选择和精调的预算控制
在线模型选择是从一组候选模型中‘即时’选择一个模型来对数据流进行预测。本论文提出了一种在线联邦模型选择框架,其中一组学习者与具有足够内存的服务器进行交互,服务器存储所有候选模型。然而,每个学习者只选择将适合其内存的一部分模型存储,并使用其中 - 边缘上的设备学习:在预算约束下选择要更新的神经元的方法
挤压在极端存储和计算约束下的设备学习所需资源,提出了一种利用动态神经元选择和有效学习的新方法。
- Shadow:用于孪生网络高效训练的新型损失函数
提出了一种名为 Shadow Loss 的新型损失函数,通过在损失计算期间压缩嵌入空间的维度,从而在不损失性能的情况下克服了现有方法在内存限制下面临的挑战。该损失函数通过在紧凑投影空间上从输入中学习嵌入的投影之间的距离,这些距离直接对应于类 - 通过利用目标语言上下文提升端到端会话语音翻译
在这篇研究中,我们介绍了如何在端到端语音翻译中引入目标语言上下文,以增强连贯性并克服扩展音频片段的内存限制。此外,我们还提出了上下文丢弃以确保对上下文缺失的鲁棒性,并通过添加说话者信息进一步提高性能。我们的上下文化端到端语音翻译方法优于孤立 - 通过层间内核共享大幅减少深度卷积神经网络中可训练参数数量
提出在深度卷积神经网络中通过共享卷积层核来减少可训练参数数量和内存占用的方法,既能够缓解边缘计算内存限制,又能有效地防止过拟合。实验证明该方法能够在保持精度的情况下大幅减少模型大小。
- 内存约束下的数据流分类 Mondrian Forest
本文介绍了一种将监督学习算法从基于内存的模型转变为基于数据流处理,特别是针对存储容量有限的设备,使用了五种弥补内存限制的策略,并设计了修剪机制来应对数据概念漂移的在线 Mondrian Forest (OMF) 分类算法。作者在各种真实和模 - 异构多处理器系统下带内存约束的数据分配和任务调度的一种启发式方法
本文主要研究在共享内存平台下内存限制下数据分配和任务调度问题,提出了一个整数线性规划模型和基于禁忌搜索算法的可行解决方案,并在随机生成的实例上验证了该方法的有效性。
- CVPR受限的少样本类增量学习
提出一种名为 C-FSCIL 的架构,利用超维嵌入,对每个新的类别进行异构存储策略,解决了记忆约束,并通过一些新的损失函数,进一步提高了类向量表示的质量。在 CIFAR100、miniImageNet 和 Omniglot 数据集上的实验结 - EMNLPEdgeFormer: 一种高效参数的边缘 Transformer 用于设备上 Seq2seq 生成
EdgeFormer 是一种面向严格计算和内存限制下的设备本地序列生成的小型 Transformer,应用了两个新颖的成本效益参数化原则,扩展了共享层的网络,并通过大量实验达到了竞争优势。提出了 EdgeLM,这是第一个可供公开使用的在设备 - KDD学习弹性嵌入用于定制设备推荐算法
本研究提出了一种基于弹性嵌入的轻量级推荐算法,它允许在不重新训练的情况下自动适应任意设备特定的内存限制,并通过多样性驱动的规则化和性能估计法来获得更出色的性能表现。
- 大规模视频预测的贪心分层变分自编码器
介绍了一种基于 Greedy Hierarchical Variational Autoencoders (GHVAEs) 的高保真度视频预测模型,能够解决 GPU 或 TPU 的内存限制和大规模视频预测的优化难题,并在四个视频数据集上取得 - 卷积网络是否需要完全连接的输出层?
本文提出用固定层替换神经网络中的全连接层以提升效率的思路并进行实验,结果表明完全移除全连接层及其参数即可达到最优性能,而使用全连接输出层的传统方法在参数数量上效率低下。
- 大规模推荐模型的神经输入搜索
该研究提出 Neural Input Search 技术,它通过强化学习自动学习在记忆限制下最优的分类特征嵌入维度和词汇大小,相较于传统的 Single-size Embedding,采用一种新型的嵌入方法 ——Multi-size Emb - CVPR混合场景压缩用于视觉定位
这篇论文介绍了一种新的混合压缩算法,用于视觉定位,能够在不增加存储要求的情况下获得更完整的场景表示,并且在相同的内存限制下比以前的压缩技术具有更高的姿态准确性。
- 稀疏条件高斯图模型的大规模优化算法
本文提出了一种基于牛顿法的优化程序,通过迭代两个子问题来实现高效计算,使用块协调下降来限制内存使用并实现快速收敛,解决了大规模问题下的内存限制和精度问题。
- 动态图数据流中的密度最大子图
本文提出了一种单遍算法,在动态图流模型下使用少量的空间和多项式时间精确地找到图中最大密度的 $(1+\epsilon)$ 近似值,进一步对算法的最小空间使用量进行了界定。