- 利用有限资源进行 Transformer 联合学习而不共享模型
使用名为 Fed-Grow 的联邦框架,设计了一个名为 Dual-LiGO 的架构来帮助多个参与者从其预训练的小模型扩展到一个 Transformer,以提高模型的准确性和资源利用率,并保护用户的隐私。
- 保存全部:通过循环黑色梯度下降实现联邦大语言模型的全参数调优
该研究引入了一种名为 FedCyBGD 的新方法,利用 Cycle Block Gradient Descent 来高效地在联邦学习中训练和微调大语言模型,从而减少资源消耗,并取得了最先进的 FL LLM 训练表现。
- 面向有效的 VNF 分析的联邦传输组件分析
本文提出了一种基于联邦传输组件分析的方法,通过训练生成对抗网络模型并使用已有和目标虚拟网络功能的数据,实现了资源消耗的预测,同时保护数据隐私。实验结果表明,该方法能有效地减少回归模型的均方根误差指标,并提高决定系数度量值。
- 大型语言模型的无损加速通过自适应 N-gram 并行解码
通过引入自适应 N-gram 并行解码(ANPD),我们提出了一种创新的无损方法,可以在保持性能的同时加速推理。ANPD 采用两阶段方法,通过一种快速草稿阶段和验证阶段,使生成多个标记成为可能,从而提高处理速度并减少推理延迟。ANPD 消除 - 公平通过获取:小规模深度学习的案例
通过检验 131 个不同的 DL 体系结构,并在三个医学图像数据集上捕捉性能 - 资源权衡的趋势,我们引入了一种新的度量方法来估计每个资源单位的性能(PePR 得分),从而解决大规模 DL 模型的资源消耗问题。我们还展示了使用预训练模型可以 - 每个人都剪枝:只使用前向传播的 LLM 结构剪枝
利用仅使用前向传递的方法进行结构裁剪,我们开发了 Bonsai,一种无梯度、扰动性的裁剪方法,能够生成小型、快速、准确的模型,超越梯度裁剪方法和半结构裁剪方法的性能且节约资源。
- 仅需集合:基于 FPGA 的超快速喷注分类方法在 HL-LHC 中的应用
通过对基于机器学习的算法在可编程门阵列上进行准确的喷注风味分类的研究,展示了在输入规模和算法选择方面的延迟和资源消耗如何扩展,并提供了一种用于在 CERN LHC 的高亮度阶段进行标记的模型的初始设计。通过量化感知训练和高效硬件实现,我们展 - EASRec:用于高效长期顺序推荐系统的弹性架构搜索
我们的研究针对当前基于注意力模型的顺序推荐系统(SRSs)在计算和资源效率方面存在的困难进行了探讨,提出了结合自动修剪技术和先进模型架构的新方法。我们还探索了资源受限的神经架构搜索技术在减少计算成本、延迟和能源消耗方面的潜力,同时保持或提高 - 为渐进式训练语言模型准备课程
Apollo 方法使用低价值优先采样(LVPS)训练不同深度的模型,并使用权重共享来促进高效的扩展,通过插值方法实现稳定的模型深度扩展,既提高了训练效率,也降低了时间、财务和环境成本。
- 有限资源下的偏好学习复杂性理解
奖励最大化问题中,我们考虑资源消耗的限制下的对决强盗设置。我们提出了基于 EXP3 的对决算法,并通过数值模拟证明了我们提出方法的有效性。
- SCoTTi:使用自适应框架在训练时节省计算
提出了 SCoTTi(Save Computation at Training Time)自适应框架,通过优化阈值参数来减少训练过程中的神经元更新次数,从而降低内存和计算资源使用量。在各种常用基准和流行架构(包括 ResNets,Mobil - 生产无服务器工作负载的长期趋势特征
对华为云无服务器服务的行为进行了分析,发现函数的请求和执行方式存在巨大差异,资源消耗和时间分布也存在多样性,需要进一步研究资源预留和时序预测。
- 优化变化检测的视觉变换器
基于视觉变换模型的大多数变化检测模型目前遵循 “预训练然后微调” 的策略,但我们提出了一种高效的微调方法,通过冻结预训练图像编码器的参数并引入额外的训练参数,实现了与低资源消耗相比更具竞争力的结果,并且可扩展到语义变化检测和多时相变化检测的 - URegM:开源云中重构软件坏味道的资源消耗的统一预测模型
通过一种名为统一回归建模(URegM)的框架,本文旨在预测代码异味重构对云资源使用的影响,实验结果表明 URegM 能够准确预测由于代码异味重构而带来的资源消耗,从而使云服务提供商能够更有效地进行资源配置和代码重构。
- 聚类线性情境强化学习与背包
本文研究了集群上下文强化学习,其中回报和资源消耗是集群特定线性模型的结果,算法无法知晓各个元素的集群成员关系。通过拉动一根臂在一个时间段内会产生回报和对于多个资源的消耗,并且任何资源的总消耗超过约束条件会导致算法终止。因此,最大化总回报需要 - 高效情感分析:特征提取技术、集成以及深度学习模型的资源感知评估
该论文对文档级情感分析模型进行了广泛比较评估,在关注模型部署可行性和资源消耗的重要指标方面,考虑了不同的特征提取技术、集成效果、任务特定的深度学习建模和领域无关的大型语言模型(LLMs)。研究发现,尽管微调的 LLM 获得了最高的准确率,但 - KDDLightPath:轻量级和可扩展的路径表示学习
提出了一种轻量级和可扩展的路径表示学习框架 LightPath,旨在降低资源消耗和实现可扩展性,同时不影响准确性,从而实现更广泛的适用性。
- 大模型推断中的最优缓存和模型复用
本文旨在研究减少大规模语言模型在推理阶段资源消耗和延迟方面的两种方法:使用缓存来存储之前的查询,学习一个模型多路复用器来选择一个模型集合来进行查询处理,并提供了一种优化算法来同时减少离线和在线表格设置中的推理成本。其中使用 GDSF 或 L - 虚拟现实视口预测中的鲁棒和资源有效的机器学习辅助
本文提出了一种基于元学习和机器学习的视口预测范式,旨在减少 360 度全景视频的资源消耗,提高视口预测的鲁棒性,该模型通过迅速适应每个用户,可以显着提高预测准确性。
- 边缘设备上实现深度学习
本论文探讨了 DNN 在资源受限的边缘设备上部署的优化问题,并研究了四种边缘智能场景下的深度学习方法,通过减少 DNN 冗余度来达到资源消耗与模型准确度之间的平衡。