- 拉格朗日神经网络用于可逆耗散演化
利用拉格朗日和哈密顿力学与网络训练来将物理学纳入网络中,以模拟具有耗散动力学的系统,本研究使用莫尔斯 - 费希巴赖格朗日方法模拟耗散系统,并通过网络训练数据表明该方法能够实现系统的正反向演化。
- 神经网络的近似和梯度下降训练
通过研究使用神经切向核(NTK)优化方法来训练的网络,本文对使用梯度下降训练的网络建立了类似的结果,以扩展逼近结果的平滑性,从而显示了这两种理论的兼容性。
- 自动驾驶中的占用感知调查:信息融合视角
3D 占用感知技术是观察和理解自动驾驶车辆的密集 3D 环境的一项目标。本调查报告回顾了最新的 3D 占用感知研究,提供了对各种输入模态的方法论的深入分析,总结了网络流程、信息融合技术以及有效的网络训练,评估了现有算法在最流行的数据集上的性 - 可逆残差缩放模型
通过学习特定分布下的高分辨率图像与低分辨率图像之间的双射映射,我们提出了可逆残差缩放模型 (IRRM) 来构建深度网络,通过长跳跃连接的残差降采样模块 (RDM) 和短连接的可逆残差块 (IRB) 来强制模型提取图像的高频信息,从而在图像缩 - 通过双流样本蒸馏实现鲁棒性噪声标签学习
通过设计名为 Two-Stream Sample Distillation(TSSD)的简单而有效的样本选择框架,来提取更多高质量具有干净标签的样本,改进网络训练的鲁棒性。实验证明,我们的方法在四个基准数据集上取得了与竞争对手相比的最先进结 - AAAICMG-Net: 基于 Chamfer 法线距离和多尺度几何学的点云鲁棒法线估计
该论文提出了一种准确且强大的方法来从点云中估计法线。通过提出 Chamfer 法线距离这一新的度量标准,我们解决了之前直接最小化注释和预测法线之间偏差所导致的方向不一致问题,并提高了网络训练和鲁棒性。此外,我们设计了一种创新的架构,包括多尺 - NIPS评论有助于更好地学习:时间监督知识蒸馏
研究发现,在网络训练期间,特征映射的演化遵循时间顺序属性,使用卷积长短期记忆网络(Conv-LSTM)提取学生的不同训练阶段的时空特征进行动态目标训练,可以实现在学生网络中对旧知识的精炼并利用它们来帮助当前的学习,相关实验证明其方法相对于现 - 自压缩神经网络
本文介绍了一种称为 Self-Compression 的方法,可以移除神经网络中的冗余参数和减少表示权重所需的位数,从而简化网络结构,提高训练和推断效率。作者通过实验证明,使用 Self-Compression 方法可以在只保留网络中 18 - DC-BENCH:数据集压缩基准测试
本研究提供了首个大规模的 Dataset Condensation 标准化基准,通过其生成的数据集全面反映了浓缩方法的通用性和有效性,并报告了许多有见地的发现,为未来的发展开辟了新的可能性。
- ICLR神经网络作为表示空间中的路径
深度神经网络的层次计算可以看作是在高维表示空间上的一条路径,通过度量相似性等工具可以理解和解释神经网络的训练过程,并发现不同模型之间的相似之处。
- ECCV自适应补丁退出用于可扩展的单图像超分辨率
本文提出了基于自适应补丁退出(APE)的可伸缩方法来实现更实际的加速。我们首先建议训练回归器来预测各个层的增量容量,一旦增量容量低于阈值,特定层上的补丁可以退出。此外,我们提出了一种新的策略来实现网络训练。通过不同的阈值设置,我们的方法可以 - CVPRCAFE:通过特征对齐学习压缩数据集
本文提出了一种名为 CAFE 的新方法来压缩数据集并 align 真实数据和合成数据的特征,以防止梯度偏差。我们的方案通过动态双级优化和适应性参数更新以防止过度拟合,并通过广泛实验验证了其有效性。
- CVPR在特征协方差的零空间中训练网络以进行持续学习
该研究提出了一种名为 Adam-NSCL 的网络训练算法,通过在先前任务的零空间内依次优化网络参数,平衡了网络在不断学习过程中的可塑性和稳定性。实验结果表明该算法在 CIFAR-100 和 TinyImageNet 等基准数据集上胜过或与最 - 随机梯度下降的大批量大小计算效率低下
研究增加小批量大小以减少神经网络训练时间所面临的挑战,并通过广泛的经验分析得出,增加批量大小超过一定点对于训练或测试损失的收敛时间没有减少,而这一点通常低于当前系统的容量,说明常用的大批量优化训练策略在无法充分利用所有可用的计算资源之前就会 - CVPR具有层次先验的变分贝叶斯 Dropout
我们提出了一种新的名为 Variational Bayesian Dropout (VBD) 的泛化 Gaussian Dropout 方法,其利用分层先验来推断联合后验,以解决 Variational dropout 中的不恰当先验带来的 - 利用多标签多任务卷积循环神经网络统一独立和重叠音频事件检测
论文提出了一种基于卷积循环神经网络的多标签多任务框架,可以同时检测单个和重叠音频事件,并具备有效的特征提取、事件分类和边界定位能力,并使用三个不同的序列损失函数对网络进行训练,在两个数据集上的实验结果表明模型具有良好的泛化性能。
- 通过同源余弦损失函数学习深度特征进行人物识别
本研究提出了一种新方法,通过训练一个网络来获得稳健和代表性特征,该方法通过比较和优化两个特征之间的余弦距离来解决人物识别的问题,同时减少内部差异,提高分类准确度。
- 通过奇异值约束提高深度神经网络的训练
本文通过提出一种名为 Singular Value Bounding (SVB) 的简单而有效的方法,约束了整个深度神经网络训练过程中的权重矩阵解,使其满足正交可行集,并在基准图像分类数据集上进行试验,得出了令人满意的成果。