- DiG: 基于门控线性注意力的可扩展高效扩散模型
本文基于 Gated Linear Attention Transformers 构建一个可用于扩展预训练扩散模型的简单、易于采用的解决方案,其在效率和效果上优于 Diffusion Transformers 模型。
- 子空间节点修剪
使用节点剪枝和子空间形成技术,该论文提出了可以在保持网络性能最大化的同时去除计算单元来提高深度网络的效率,通过重新组织网络和使用正交子空间来选择合适的剪枝比例,并在 VGG 和残差网络中验证了该方法的优越性。
- 基于边界感知查询投票的高效时间动作分割
通过使用 BaFormer 方法,本研究提出了一种基于时间段分类的新视角,以实现高效的动作分割,过程中运用了 Transformer 的优势,将每个视频段作为实例标记,并赋予了内在的实例分割能力,通过使用全局查询进行类别无关的边界预测,得到 - 使用双向 SSM 扩展 Diffusion Mamba 以实现高效图像和视频生成
Diffusion Mamba (DiM) is a novel architecture that effectively addresses the computational complexity of traditional dif - 可编辑的概念瓶颈模型
通过使用数学严谨的闭合形式近似和影响力函数,我们提出了可编辑的概念瓶颈模型(ECBMs),以解决从头重新训练的困境,实现高效率的数据删除和插入操作,从而适应大规模应用中的数据处理需求。
- RAEE:一种无需训练的检索增强早期退出框架,实现高效推理
通过构建检索数据库,框架 RAEE 以预测的近似分布为指导,利用类似数据的退出信息加速语言模型推理,取得了显著的效果,并在 8 个分类任务上达到了最先进的零 - shot 性能。
- 快速 PGM:快速概率图模型学习与推理
Fast-PGM 是一个高效且开源的库,支持概率图模型的学习和推理任务,提供计算和内存优化以及并行化技术,同时为开发者提供灵活的构建模块、详细的文档,并向非专业用户提供用户友好的界面,提高了概率图模型在不同专业水平用户之间的可用性。
- YOLOv10:实时端到端物体检测
通过消除非极大值抑制(NMS)的依赖性和综合优化 YOLOs 的各个组件,本研究提出了一种新一代的实时端到端目标检测模型 YOLOv10,其在性能和效率方面均取得了最新的成果。
- 从单个基态准确学习等变量量子系统
通过从一个基本样本中学习,我们显著提高了在具有周期边界条件系统的所有基态性质的预测算法的效率,并证明了在热力学极限下预测误差趋近于零。
- 图生成的离散状态连续时间扩散
本文提出了一种离散状态连续时间设置的图扩散生成模型,该模型在以前的图扩散模型中从未被研究过。分析表明,我们的训练目标与生成质量密切相关,我们提出的生成框架在节点排序的排列方面具有理想的不变 / 等变特性。我们的模型在各种基准测试中表现出有竞 - 任务导向提示的动态嵌入
这篇论文介绍了一种名为 “动态嵌入与任务导向提示(DETOT)” 的新颖方法,旨在通过实施灵活的嵌入层来提高机器学习模型的适应性和效率,与传统的静态嵌入相比,DETOT 根据任务需求和性能反馈动态调整嵌入,优化个别任务的输入数据表示。该方法 - 自然语言处理中 Transformer 的效率综述
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
- 具备大型语言模型的版面生成代理
研究了使用 GPT-4V 多模态大语言模型的基于代理的布局生成系统,通过顺序放置对象在虚拟空间中生成反映用户指令的布局,实验证实该方法能以高成功率生成反映用户指令的虚拟空间,并通过消融研究成功地确定了对行为生成性能改善做出贡献的要素。
- 重新思考面向事件相机的高效有效的基于点的网络:EventMamba
EventMamba 是一个高效和有效的点云框架,通过优化网络结构实现了对时间信息的提取,并在分类和回归任务中表现出与基于帧的方法相媲美的结果,同时具有轻量级设计原则,实现了卓越的效率和效果。
- 从算法到硬件:深度神经网络高效安全部署综述
深度神经网络(DNNs)在许多人工智能(AI)任务中被广泛使用,为了解决其部署带来的巨大的内存、能量和计算成本挑战,研究人员开发了各种模型压缩技术,最近还有越来越多的研究关注定制化 DNN 硬件加速器以更好地利用模型压缩技术,此外,保护安全 - ICMLDitto: 基于 MPC 的量化感知 Transformer 安全推理
通过引入 MPC-friendly 的量化技术以及 MPC primitives,Ditto 实现了更高效的量化 - aware 安全 Transformer 推断,显著降低了计算和通信开销,与现有研究相比速度提高了 3.14~4.40 倍 - CVPR基于注意力机制的训练无关扩散模型效率增强
Attention-driven Training-free Efficient Diffusion Model (AT-EDM) framework leverages attention maps for runtime pruning - 语义目标函数:向深度学习中添加逻辑约束的一种分布感知方法
通过结合逻辑和信息几何,我们提出了一种将知识嵌入和逻辑约束引入机器学习模型中的方法,通过构造分布并将其与原始损失函数以及费舍尔 - 劳距离或库尔巴克 - 莱布勒散度相结合构造损失函数,以输出概率分布来包含逻辑约束。
- 通过神经架构搜索对预训练语言模型进行结构修剪
基于预训练语言模型和神经架构搜索的结构修剪方法,通过多目标策略实现对子网络的灵活压缩,提高模型效率。
- 高效经济的大型语言模型推理与注意力卸载
通过引入关注点卸载的概念,将昂贵的计算优化加速器与便宜的内存优化设备相结合,以提高大型语言模型的效率和成本效益。我们开发了 Lamina 推理系统,实验证明,相较于同质解决方案,Lamina 可以提供每美元 1.48 倍至 12.1 倍的更