- KDDFedBiOT: LLM 局部微调的联邦学习无需完整模型
在联邦学习中,我们提出了一种资源高效的大型语言模型细调方法,通过引入压缩模型和适配器的概念,在减少资源消耗的同时实现与全模型可比的性能水平。
- 在语法森林中舞蹈:使用 SALSA 进行快速、准确和可解释的情感分析
SALSA 项目旨在利用快速句法分析技术构建轻量高效的情感分析系统,同时通过显式使用句法提供准确度和可解释性,以满足中小企业生产使用的需求。
- 选择何种骨干网络:面向计算机视觉的资源高效领域比较
该研究评估了多个轻量级、预训练的 CNN 骨干网络在各种不同数据集上的性能,包括自然图像、医学图像、星系图像和遥感图像,并提供了关于计算机视觉领域不同骨干网络性能和有效性的可行见解,为模型选择提供指导。
- VIP: 基于多模态大型语言模型的多功能图像外描绘
本文介绍了一种新颖的图像外延框架,利用多模态大语言模型(MLLM)自动提取和组织给定图像的遮罩部分和非遮罩部分的文本描述,并利用特殊的交叉注意力模块(CTS)增强图像的特定空间区域与文本提示部分之间的交互作用,从而实现了图像外延结果的定制化 - 基于边缘计算内存体系结构的检索增强生成的稳健实现
通过利用计算存储器(CiM)架构,本文提出了一种新的加速检索增强生成(RAG)框架,名为鲁棒 CiM 支持 RAG(RoCR),该框架使用了一种基于对比学习的训练方法和噪声感知训练,可以让 RAG 在 CiM 上高效地搜索配置文件数据,据我 - 小型语言模型也很不错:一项零样本分类的实证研究
该研究评估了使用不同参数和结构的小型语言模型在零射击文本分类中的性能,并发现小型模型在分类文本方面表现出色,与或超过了更大的模型,这一发现强调了资源高效的小型模型可能为特定的数据分类挑战提供可行的解决方案。
- 无人机抓取中低功率设备的高速探测器
自主空中收获是一个高度复杂的问题,因为它需要在小型低功耗计算设备上执行许多交叉学科算法。本文提出了一种基于新型潜在对象表示 (LOR) 模块、查询分配和预测策略的资源高效、单阶段且无后处理的快速水果检测器 (FFD),实现了与控制、抓取、S - NutePrune: 高效、逐步精简大型语言模型的多个教师
大规模语言模型在资源受限的硬件上部署具有挑战性,本研究提出了一种高效的结构剪枝算法 NutePrune,通过逐步引导剪枝模型的方法,在保持整体性能的同时,减小了内存开销和提高了推理速度。
- 大型语言模型的机器遗忘思考
探索机器遗忘(MU)在大型语言模型(LLMs)领域中的应用,称为 LLM 遗忘。通过维持基本知识生成的完整性且不影响非因果相关信息,旨在消除不良数据影响(例如敏感或非法信息)及相关模型能力,成为 LLMs 生命周期管理中的重要元素,潜在地作 - 基于图神经网络的经典规划器选择
在线规划器选择是选择给定规划问题的预定义求解器之一的任务。本研究通过深入研究所选择 GNN 模型、图表示和节点特征以及预测任务等方面的影响,提出使用 GNN 获得的图表示作为 XGBoost 模型的输入,以实现更具资源效率且准确的方法,展示 - PanGu-Draw: 提高资源效率的文本到图像合成技术,采用时间解耦训练和可重复使用的合作扩散
PanGu-Draw 是一种资源高效的潜在扩散模型,通过时间解耦训练策略和合作扩散算法,实现了高效的文本到图像合成和多控制图像生成。
- 混合风格近似下的高效跨域联邦学习
我们介绍了一种在硬件受限环境中用于实现客户端适应性的隐私保护、资源高效的联邦学习概念。通过在源数据上进行服务器模型预训练,并在低端客户端上对目标数据进行细调,我们的方法通过从源域和目标域数据近似的实例级特征统计的概率混合来简化本地客户端适应 - TinyFormer:小型设备上高效的 Transformer 设计与部署
本文提出了 TinyFormer,这是一个专门设计用于在微控制器单元上开发和部署资源高效的 transformers 的框架,通过 SuperNAS、SparseNAS 和 SparseEngine 的组合,实现了在 MCUs 上高效部署 - MO-YOLO: 基于 YOLO 和 MOTR 的端到端多目标跟踪方法
该论文提出了一种高效、资源利用率高的端到端多目标跟踪模型 MO-YOLO,通过结合 YOLO 和 RT-DETR 模型的优势,构建了一种高效、轻量级的多目标跟踪网络,为多目标跟踪领域提供了新的机会。
- ICCV学习上采样通过学习采样
DySample 是一种轻量级且有效的动态上采样方法,通过绕过动态卷积并从点采样的角度进行上采样,不仅更加高效,并且在多个密集预测任务中表现优异。
- 资源高效的联邦高维计算
提出了一种资源高效的联邦超高维计算(RE-FHDC)框架,通过训练多个较小的独立 HDC 子模型并使用所提出的 dropout-inspired 程序来精炼串联的 HDC 模型,实现与基线联邦 HDC 实现相比消耗较少计算和无线电资源的可比 - ACLHiFi: 高信息注意力头用于参数有效的模型调整
本文提出了一种名为 HiFi 的参数高效的微调方法,即只微调与特定任务高度相关的信息丰富且高度相关的注意力头,该方法使用 PageRank 算法搜索显著的注意力头,实验证明 HiFi 方法在 GLUE 基准测试中获得了先进的性能。
- RECLIP: 使用小尺寸图片训练的资源高效 CLIP
本文介绍了一种名为 RECLIP 的方法,其最小化了用于 Contrastive Language Image Pretraining 的计算资源,实现了高效的语言监督预训练。该方法利用小图像高效地学习大规模语言监督,并在最后使用高分辨率数 - ECCVEdgeNeXt:面向移动视觉应用的高效融合 CNN-Transformer 结构
本研究提出了一种新型的轻量神经网络 EdgeNeXt,通过引入 STDA 编码器,在不增加计算成本的情况下,将 CNN 和 Transformer 模型的优点结合起来,以实现多尺度特征的编码和有效利用,从而达到资源高效的目的。在分类、检测和 - MM跨摄像机兴趣区域优化:大规模高效实时视频分析
CrossRoI 是一种资源有效的系统,通过利用视频内容的关联性和冗余性在规模上实现实时视频分析,其中包括离线相位建立跨相机关系的决策,以及高效在线相位的实时视频推理,同时比基线方法具有更高的查询准确性和较高的性能收益。