- REP: 资源高效的设备上持续学习中的提示
利用先进的预训练 ViT 模型,本研究通过 REP 方法提高基于 ViT 的 on-device continual learning 的资源利用效率,避免牺牲准确性的情况下降低计算和内存成本。
- ICML有限资源下的优质多样性
如何用有限资源高效训练品质多样性算法(QD algorithms),这篇论文提出了一种名为 RefQD 的新方法,通过将神经网络分解为表示部分和决策部分,并在存档中共享表示部分,以减少资源开销。RefQD 在各种资源消耗大小的任务上进行的实 - 无标记的逆向鉴定补充了对生物实验中个体昆虫主体的重新鉴定
引入新颖的无标记反向识别动物的概念和实用技术,以补充传统的前瞻性纵向行为研究方法。研究中提出了通过模型训练实现反向识别,以提高资源效率,减少手动标注工作和计算资源投入。
- GestFormer: 动态手势识别的多尺度小波池化变换网络
我们提出了一种新颖的 GestFormer 架构,用于动态手势识别,旨在提供一种资源高效的 Transformer 模型,提高姿势的细节性能和资源效率。
- EWMoE:基于混合专家的全球气象预报的有效模型
在本文中,我们提出了 EWMoE 模型,它是一种能够准确预测全球天气的有效模型,它只需要较少的训练数据和计算资源,并利用 Meteorology-specific embedding、核心 Mixture-of-Experts (MoE) - 使用一半的数据和 400 倍少的计算资源训练高性能视网膜基础模型
人工智能在医学领域具有巨大潜力,但传统上受限于缺乏大量的数据集来训练模型。我们提出了一种新颖的 Token Reconstruction 目标,用于训练 RETFound-Green,这是一个只使用了 75,000 张公开可用图像和 400 - 从 LLM 到 NMT:借助 Claude 推动低资源机器翻译的发展
Anthropic 在 2024 年 3 月发布的大型语言模型 Claude 3 Opus 在机器翻译方面表现出比其他语言模型更强的能力。虽然我们发现 Claude 在 FLORES-200 上存在数据污染的证据,但我们整理了新的基准数据, - 研究面向 eFPGA 的资源高效中子 /γ 射线分类机器学习模型
实施机器学习模型于硬件上已取得了相当大的兴趣和进展,而该研究探索了电子可变程序逻辑阵列(eFPGA)在完全连接神经网络(fcNN)和增强决策树(BDT)模型实现方面的参数空间以及资源效率的权衡,以帮助制定一个作为测试芯片的一部分的 eFPG - ReffAKD: 资源高效的基于自编码器的知识蒸馏
提出了一种新方法来提高知识蒸馏效率,同时不需要资源密集的教师模型。通过使用紧凑的自动编码器提取特征并计算不同类别之间的相似度得分,然后对这些相似度得分应用 softmax 函数以获得软概率向量,这个向量在学生模型的训练中作为有价值的指导。在 - 统一输入对计算机视觉中激活稀疏性和能耗延迟攻击的影响
机器学习中的资源效率对于当今十分重要,本文分析了敌对攻击如何通过减少激活稀疏度的方式来增加能耗和决策延迟,并提出了两种新的简单而有效的策略来生成海绵样本,通过实证评估表明这些策略能够在少量计算资源的情况下取得与之前方法相当的激活稀疏效果,并 - 条件信任环境下的协作主动学习
通过合作主动学习,利用多个协作者的机器学习能力,不泄露现有数据和模型,而是共享新领域的预测结果和新获取的标签,以解决隐私和安全问题、提高成本效益和资源利用效率,促进模型性能,并为进一步研究合作主动学习及其在各个领域的实际应用提供了基础。
- COIN: 机遇约束的模仿学习用于基于不确定性感知的自适应资源超额订阅策略
我们通过提出的新颖的机会约束模仿学习框架解决了在存在不确定性的情况下学习安全和稳健的决策策略的挑战,以提高资源效率并确保安全性。
- 云原生微服务的分析驱动资源管理
云原生微服务的资源管理主题引起了广泛关注。我们提出了一种轻量级资源管理系统 Ursa,通过将服务级别协议分解为每个服务级别协议,并将每个服务级别协议映射到每个微服务层的单个资源分配,来解决机器学习驱动方法面临的挑战。与其他机器学习驱动的方法 - 超越效率:资源高效的大型语言模型的系统调查
大型语言模型(LLMs)的资源效率调查,系统地介绍了提高 LLMs 资源效率的各种技术,包括优化策略、评估指标和可持续发展。
- ECLM: 高效的边缘 - 云协作学习与持续环境适应
通过 ECLM 边缘云协作学习框架,将边缘和云模型高效协作,在动态边缘环境中提高模型性能和资源利用效率。
- CEFL:碳高效联邦学习
Federated Learning 通过自适应成本感知的客户端选择策略优化任意成本指标,将资源效率提高到时间 - 准确性之间的最优化问题解决掉,并通过设计碳效率的 Federated Learning 模型,以其能耗的碳排放强度为成本,在 - EMNLP高效变换器的基于近似的两层前馈网络
如何在不牺牲性能的情况下减少神经网络的计算和内存需求?本研究提出了 sparse Mixtures of Experts 方法,通过一种综合框架将各种方法整合在一起以近似两层神经网络,并提出方法来改进这种方法,这样可以使大型语言模型在资源利 - MM层次序列标注的简历解析:实证研究
提取信息从简历通常被制定为一个两阶段的问题,首先对文档进行分段,然后分别处理每个段落以提取目标实体。相反,我们将整个问题分为两个层次的序列标注 —— 行和标记,并研究用于同时解决两个任务的模型架构。我们建立了英文、法文、中文、西班牙文、德文 - MaGNAS: 一种面向异构 MPSoC 部署的映射感知图神经元架构搜索框架
本文提出了 MaGNAS,一个设计 - 映射方法,用于在异构 MPSoC 平台上高效处理图形神经网络工作负载,旨在实现最大化设备资源效率,并证明实验结果表明该方法能够提供 1.57 倍的延迟加速和 3.38 倍的能源效率,而准确率损失仅为 - RHFedMTL: 资源感知的分层联邦多任务学习
本文提出了一种可行的资源感知层次化联邦多任务学习 (RHFedMTL) 解决方案,通过解决基站内的不同任务并在不危及隐私的情况下在云中聚合多任务结果,以满足任务异构性,同时开发了一种面向本地终端和基站的资源感知学习策略以满足资源预算 。