- 生成蒸馏下的扩散模型的持续学习
借助生成性重放的扩散模型的生成蒸馏方法,可以显着提升持续学习性能,只需适度增加计算成本。
- 具有优先多目标的核心集选择
深度学习算法中,通过核心集选择来减少计算成本和加速数据处理。在满足模型性能的前提下,通过优先级顺序,我们提出了一种创新方法来选择尽可能小的核心集,以更低的成本和更高的加速度实现更好的模型性能。
- Edge2Node: 将边预测减少为节点分类
本文介绍了一种称为 E2N(Edge2Node)的新方法,通过在图 G 的基础上创建新图 H,将边预测任务降低为 H 上的节点分类任务,从而直接获得每个边的嵌入,无需使用评分函数,该方法在任何边预测任务中都具有出色的性能和较低的计算成本。
- 通过最大化重新标记准确性实现噪声标签下的稳健数据修剪
通过重新标记和剪枝训练集,本研究提出了一种最大化数据子集总体近邻置信度以提高重新标记准确性和泛化性能的数据剪枝算法。在实验中,该算法相比于重新标记模型提高了 9.1%,相比于标准模型提高了 21.6%。
- WinNet:时间序列预测与窗口增强周期提取与交互
WinNet 是一种高准确性、简单结构的基于 CNN 的模型,用于长期时间序列预测任务,包括将一维序列转换为具有长期和短期周期性的二维张量,建模周期趋势和振荡项,以及利用周期趋势和振荡项的相关性通过 CNN 支持预测任务。通过在九个基准数据 - 具有隐式欧拉转移学习的 Burgers' 方程针对问题
通过使用物理信息神经网络(PINN)和隐式欧拉传递学习的方法,本文解决了 Burgers 方程。该方法使用一系列人工神经网络(ANNs)来寻求一个时间离散解,在每个时间步骤中,上一个 ANN 将它的知识传递给下一个网络模型,通过最小化基于 - Jorge:高效 GPU 二阶最优化的近似预处理
本文介绍了 Jorge,一种第二阶优化器,它通过省略矩阵求逆的计算,结合了第二阶方法的快速收敛性和第一阶方法的高计算效率。还提出了一种从 SGD 基准直接确定 Jorge 超参数的方法,从而显著减少调参工作。实证评估结果表明,在多个深度学习 - VST++:高效且更强力的视觉显著性 Transformer
我们提出了一种名为 VST++ 的有效且强大的模型,以更低的计算成本实现了比现有方法更好的性能,同时突出了其潜力。
- 利用多线性算子对预训练模型进行高效训练的复用
我们提出了一种方法,通过线性关联目标模型的每个权重与预训练模型的所有权重,进一步增强加速能力,从而节省 76%的计算成本,超过 bert2BERT 12.0%和 LiGO 20.7%的性能。
- 学习可叠加和可跳过的乐高积木,用于高效、可重构和可变分辨率漫射建模
这项研究引入了乐高积木,通过无缝地整合局部特征增强和全局内容编排,设计了一种高效灵活的网络主干,用于迭代改进。乐高积木可以在测试时重新配置扩散主干,通过选择性跳过积木来减少采样成本并生成比训练数据分辨率更高的图像。实验结果表明,乐高积木提高 - GrowLength: 通过逐步增长训练长度来加速 LLMs 预训练
通过增加训练长度加速大型语言模型 (LLL) 的预训练过程,从而提高效率、减少计算成本,并改善性能。
- 基于隐式神经表示的未知动态的潜在同化
这篇论文介绍了一种新的同化框架,称为具有隐性神经表示的潜在同化(LAINR)。通过引入球状隐性神经表示(SINR)和训练神经网络的数据驱动不确定性估计器,LAINR 提高了同化过程的效率,并在准确性和效率方面优于基于自动编码器的现有方法。
- 通过 LLMs 简化长文档摘要评估
该研究提出了一种新方法,即从长文档中提取关键句子,然后通过提示大型语言模型来评估摘要,以解决计算成本高、长文档中的重要信息往往被忽视的问题,研究结果显示该方法不仅显著降低了评估成本,而且与人工评估的相关性更高,此外,我们还提供了关于最佳文档 - ICCV事件化的 Transformer:利用视觉 Transformer 中的时间冗余
本文提出了 Eventful Transformers 方法,通过利用视频输入的时间冗余性,对 Vision Transformers 进行计算成本的降低,从而在视频处理中实现了显著的计算节省。
- 不落下的资讯:增强知识追踪模型以建模过长或过短的序列
知识追踪(KT)旨在基于学生的历史问题回答行为预测其对练习的反应。我们提出了一种称为 Sequence-Flexible Knowledge Tracing(SFKT)的模型,以解决目前 KT 方法在建模长度过长或过短的序列时遇到的限制。
- 面向事件相机的内存高效图卷积网络用于目标分类和检测
最近在事件相机研究中,通过使用原始稀疏形式的数据进行处理,凭借其独特的特点(如高时间分辨率、高动态范围、低延迟和抗图像模糊性),取得了一些进展。其中,基于图卷积网络(GCNs)的事件数据分析方法令人期待。然而,在该领域的当前研究主要集中在优 - NCART:用于表格数据的神经分类和回归树
通过将决策树集成到神经网络的架构中,我们提出了一种新颖的可解释性神经网络,名为 NCART,以克服深度学习方法在大规模、高维数据集和小规模数据集方面的计算效率和解释性不足的问题。与传统的深度学习模型相比,NCART 架构简单,适用于各种规模 - ICML基于学习的阈值令牌合并和修剪用于视觉 Transformer
这篇论文介绍了一种名为 LTMP 的学习阈值符号合并和修剪方法,它通过动态确定合并和修剪的符号,以降低计算视觉变换器所需的输入符号数量,实现了在降低速率的同时保持最先进的准确性,在仅一个微调阶段的情况下比先前的方法快一个数量级以上。
- 变分预测
本文提出了一种名为可变预测的方法,该方法可通过使用可变约束直接学习预测分布的可变近似,避免了后验边缘化的计算成本,并在一个玩具实例上演示了该方法。
- 多尺度和令牌合并:让您的 ViT 更高效
本文提出一种新的 token pruning 方法,通过筛选关键词实现计算效率和模型效果的折衷,实验结果表明,该方法可显著降低计算成本,同时仅导致 0.1% 的 DeiT-S 识别精度下降。