- 可扩展离散动态图神经网络的输入快照融合
通过引入基于输入快照融合的动态图神经网络(SFDyG),本文在动态图领域解决了现有静态图模型无法适应的问题,并通过引入多图和 Hawkes 过程理论等方法提高了模型的可扩展性和预测性能。
- 用触发优化的数据毒化在联邦学习中隐藏后门模型更新
DPOT 是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
- DynaSeg:一个融合特征相似性和空间连续性的无监督图像分割的深度动态融合方法
我们的工作解决了计算机视觉中图像分割的基本挑战,提出了一种增强的无监督卷积神经网络算法 DynaSeg,通过自动化参数调整来灵活适应图像细节,并通过引入 Silhouette Score Phase 解决了动态聚类的挑战,同时整合了 CNN - 通过数据增强和摊销推理实现可扩展的垂直联邦学习
该研究提出了第一个用于垂直联合学习(VFL)中贝叶斯模型拟合的全面框架,通过数据增强技术将 VFL 问题转化为与现有贝叶斯联合学习算法兼容的形式,并开创了在垂直分区数据场景中进行隐私保护、去中心化贝叶斯推断的新研究方向与应用领域。
- IJCAI通过秘密数据集分割和 Benders 分解增强度量差分隐私的可扩展性
开发一种新的计算框架来提高线性规划方法下的度量差分隐私的可扩展性,并以此为基础解决主程序和子程序的的边界分解,实验证明了该机制在多个数据集上的优越可扩展性和效率。
- AnchorGT:用于可扩展图变换器的高效灵活的注意力架构
通过全局感受野和几乎线性的复杂度,AnchorGT 提出了一种新颖的注意力结构,用于改进各种 GT 模型的可扩展性,实现更高的效果和更高的内存效率。
- 基于量化上下文的 LIF 神经元在 45nm 重复性脉冲神经网络中的应用
提出第一个硬件实现的基于上下文的递归脉冲神经网络(RSNN),强调在新皮质锥体神经元中整合双信息流,特别是上下文相关的漏电整流二极管(CLIF)神经元模型,通过硬件和软件协同设计方法,利用 RSNN 的稀疏活动开发出量化版本的 CLIF 神 - 专家路由器:通过提示分类协调高效的语言模型推理
通过引入专家路由器,我们设计了一个可以高效地编排多个专家模型的系统,以增强大规模部署和提供大语言模型的能力,并在高负载场景下实现更高的吞吐率。
- 细调和迁移学习的控制论方法
通过引入 “遗忘无忘” 的概念,本文提出了一种迭代算法,通过投影控制函数 $u^*$ 到已学样本生成的末端映射的核上,实现在训练集扩展时保持先前学习样本的末端不变,并迭代学习新样本,从而为控制方法的可伸缩性做出了贡献。
- 快速捕鱼:高效可扩展的深度主动图像分类的 BAIT 逼近
该研究论文介绍了两种方法来提高 BAIT 在计算效率和可伸缩性方面的性能,通过近似 Fisher 信息显著减少时间复杂度,从而使其在包括 ImageNet 在内的大规模数据集上高效使用,并提供了一个开源工具箱来实现最新的主动学习策略。
- 低多边形表面和体填充的简洁平面排列
飞机安排在表面和体积建模中是一种有用的工具,本文引入了两个关键创新点,通过平面插入的排序方案和在安排构建过程中直接使用输入点,减少了不必要的分割,从而将构建机制的可扩展性提高了两个数量级,同时还介绍了一种重构和简化技术,可以从安排中提取低多 - 双向长程解析器用于顺序数据理解
本研究提出了 BLRP(双向长距离解析器),这是一种新颖且多功能的注意机制,旨在增强长序列任务的性能和效率,并通过在视觉和语言领域展示了竞争性结果来展示我们方法的优点和多功能性。
- ROMA-iQSS: 基于状态值学习与循环轮换多智能体调度的客观对齐方法
多智能体合作、去中心化状态价值学习、可伸缩性、效率和最优目标的识别与对齐是本研究的关键内容。
- 零样本可扩展协作的异构多智能体强化学习
我们提出了一个名为 SHPPO 的新型 MARL 框架,通过将异质性整合到共享参数的 PPO 基础的 MARL 网络中,实现了可扩展性和异构性,并在经典 MARL 环境中展示了优越的零 - shot 可扩展性和对学习潜在表示的可视化带来的团 - 朝着一个完全可解释且更可扩展的基于 RSA 模型的隐喻理解模型
我们引入了一个新的基于合作信息的 RSA 框架用于隐喻理解,该框架通过提供一个明确的公式来估计交际目标,并使用基于梯度的方法学习合理性参数,从而解决了现有 RSA 模型在解释性和可扩展性方面的局限性。实验结果表明,模型生成的分布与人类行为数 - CVPR基于截断逐个入口绝对残差的可扩展三维配准
在计算机视觉领域,针对具有异常数据的三维点对输入集合,我们提出了一种名为 TEAR 的方法,其旨在通过最小化一个鲁棒性强的损失函数来实现三维配准,该方法能够处理超过 1000 万个点对,并且具有高效性、低内存成本和高准确性。
- 内存可扩展的简化功能映射学习
通过提出的新型记忆可扩展和高效的功能映射学习流程,从而避免在内存中存储点映射,该方法通过可比较的结果证明其在效率和数值稳定性方面更为简化和高效,同时在具有挑战性的场景中实现接近于最先进技术的结果。
- 自我改进学习的可扩展神经组合优化
提出了一种自我改进学习(Self-Improved Learning, SIL)方法,用于提高神经组合优化(neural combinatorial optimization, NCO)的可扩展性,包括有效的模型训练和解决大规模问题实例的线 - 卷积神经网络的可扩展利普希茨估计
通过引入一个分割大卷积块为多个小块的方法,本研究提出了一种加速卷积神经网络 Lipschitz 常数估计的方法,通过调整分割因子,可以平衡准确度和可伸缩性,并且在一系列实验中展示出比现有基准方法更好的可伸缩性和可比的准确度。
- 面向设备上的虚拟助手的世界英语语言模型
通过使用适配器瓶颈来模拟方言特性,我们结合多种区域变体的英文构建了一个 “世界英语” 神经网络语言模型,以提高虚拟助手的可扩展性。