- 面具空间传播网络用于稀疏自适应深度细化
通过提出由稀疏深度点逐渐传播信息来有效地完成具有不同稀疏深度数量的单目深度估计的稀疏自适应深度细化框架(SDR),我们的实验结果表明 MPSN 在 SDR 和传统深度完成场景上取得了最先进的性能。
- 高效分布式优化的估计网络设计框架
分布式决策问题中,使用无中央内存的点对点网络通信的代理群体,其稀疏性可以通过 Estimation Network Design(END)算法进行利用,以提高效率和可拓展性,在分布式优化中表现出了卓越的性能。
- Shears:具有神经低秩适配器搜索的非结构稀疏
通过引入新颖的 Shears 方法,结合成本效益的稀疏性和神经低秩适配器搜索算法,可以进一步提高参数高效微调方法的效率。实验结果表明,与其他方法相比,Shears 方法在达到高稀疏水平的同时,提高了精度或仅稍微降低精度,并利用单个 GPU - 稀疏梯度的差分隐私优化
在大型嵌入模型应用的推动下,我们研究了带有个体梯度稀疏性的差分隐私(DP)优化问题,我们得到了经典均值估计问题的新近最优界限,但这是在稀疏数据情况下,改进了先前的算法,特别是在高维情况下。在此基础上,我们提出了几乎最优的 DP 算法和近似 - CVPR基于范数正则化的结构化梯度解释方法
通过对简单梯度方案进行稀疏性及连接性调整,采用对抗训练作为一种内部处理方案,设计并展示了基于正则化的对抗训练方法对标准神经网络架构在基准图像数据集上的梯度图产生的影响。
- CVPR低光增强的镜面分解
我们提出了一种新的加法图像因子分解技术,通过在分解过程中调制稀疏性来估计由多个潜在的镜面成分组成的图像。我们的基于模型驱动的 RSFNet 通过将优化展开为网络层来估计这些因子,只需要学习少量的标量。由设计可解释的结果因子可以通过网络进行不 - X 射线精简弱到强的三维物体检测
提出了一种新颖的方法,通过使用 X 射线视觉模型引入 Object-Complete frames 来处理 LiDAR 在 3D 物体检测中的稀疏性和遮挡问题,并且应用于半监督和监督学习场景中,取得了优于现有方法 1-1.5 mAP 的性能 - 稠密专家混合模型的泛化误差分析:初步研究
在这篇论文中,我们探索了稀疏专家混合模型(Sparse MoE)在各种关键因素下的泛化误差,并从经典学习理论的角度提供了如何使用稀疏性来提高混合模型泛化性能的见解。
- IGANN 稀疏:用非线性洞察力连接稀疏性和可解释性
我们提出了 IGANN 稀疏模型,这是一种广义加性模型的新颖机器学习模型,通过训练过程中的非线性特征选择来促进稀疏性,从而确保在不损失预测性能的情况下提高模型的解释性。
- 神经再生核泛函空间及深度网络的表示定理
通过研究神经网络所定义的函数空间,我们展示了深度神经网络定义合适的再生核 Banach 空间,并且通过应用再生核 Banach 空间的理论和变分结果,得到了支持常用有限网络结构的再现定理,为更实际可行的神经网络架构提供了一步。
- 通过高效的跨模态扩散模型实现密集准确的雷达感知
本文提出了一种通过交叉模态学习实现密集准确的毫米波雷达点云构建的新方法,并通过广泛的基准比较和实际实验验证了其优越性能和泛化能力。
- 部分可观测因果表示学习的稀疏原则
从具有实例相关的部分可观测性模式的数据集中,通过在推断表示中实施稀疏性,我们提出了两种方法来估计潜在的因果变量。
- 最大麦克斯韦恶魔:通过利用神经元的饱和实现高效修剪
通过研究神经网络中的死亡神经元现象,提出一种基于稀疏性和修剪的简单高效算法,称为 Demon Pruning(DemP),用于网络模型压缩和优化。在 CIFAR10 和 ImageNet 数据集上的实验证明,DemP 优于现有的结构化修剪技 - 应急稀疏性的掩码矩阵乘法
利用动态代码查找和稀疏性映射等方法,构建了一个矢量化和并行矩阵乘法系统,针对人工智能工作负载中的稀疏数据表示进行了优化,从而显著提升了性能。
- 无稀疏模型的稀疏且忠实解释
在这项工作中,我们引入了稀疏解释值(SEV),一种衡量机器学习模型稀疏性的新方法。我们能够证明,许多机器学习模型实际上具有低的决策稀疏度(由 SEV 度量),即使它们不是稀疏的。SEV 利用超立方体中的运动来定义,使得 SEV 能够在各种模 - 高召回率大约前 k 个预估用于高效 LLM 推理
使用大型语言模型生成的自回归解码在加速器(GPU/TPU)上通常受限于内存,而通过适当训练模型以在前馈层的高 $k$ 部分上操作,从而减少模型参数传输和减少延迟的潜力受到数据依赖性和矩阵运算的限制。为解决这些问题,我们引入了 HiRE(高召 - 通过列生成实现一对多的反事实解释
在本文中,我们考虑了一组实例的生成对照解释的问题,其中采用一对多分配规则,其中一种解释被分配给实例的一个子组。我们首次解决了最小化解释所需数量的问题,同时考虑了稀疏性,通过限制每个解释中允许同时更改的特征数量。我们开发了一种新颖的列生成框架 - 基于截断 ANOVA 分解的快速可解释支持向量分类
支持向量机是一种在高维空间中处理分散数据进行分类的重要工具,本研究中利用基于三角函数或小波的特征映射来解决 SVM 问题,并通过多元基函数的限制实现计算效率的提升和解释性强的模型。同时,通过数值实例验证,使用 L1 范数正则化可以在准确性和 - 双核重任:通过语义和拓扑意识增强图稀疏训练
图稀疏训练(GST)提出了一种动态调整数据层稀疏度的方法,通过 Equilibria Sparsification Principle 来实现拓扑和语义信息的平衡,从而产生一个具有最大拓扑完整性且没有性能下降的稀疏图。
- 两层网络训练中的早期对齐是双刃剑
使用一阶优化方法训练神经网络是深度学习实验成功的核心。在小的初始化下,训练动力学的早期阶段会导致神经元朝关键方向对齐,从而引发网络的稀疏表示,这与渐近梯度流的隐式偏差相关。然而,这种稀疏诱导的对齐会导致在最小化训练目标上面临困难,我们还提供