Peephole:训练前预测网络性能
本文提出一种基于图神经网络的 Hypernetwork 模型,可以利用已经训练好的神经网络的知识,直接预测神经网络参数,实验结果表明,该模型可以在 CPU 上在秒级时间内预测具有很高的精度和泛化能力,通过该模型的应用,可能开启训练神经网络的新篇章。
Oct, 2021
本文提出了一种利用标准频率回归模型通过网络架构、超参数和时间序列验证性能数据来预测部分训练模型配置的最终性能的方法,并证明该方法在视觉分类和语言建模领域中是有效的。同时,我们提出了一种早期停止方法,可用于超参数优化和元模建模,加速了模型配置的优化过程,该方法在强化学习 - based 架构选择算法和基于贝叶斯思想的搜索方法中均可无缝集成。
May, 2017
给定神经网络的初始条件,通过在参数空间中重建输入从相邻激活层到单层辅助网络的级联来预测深层前馈神经网络的可训练区域,从而显著降低整体训练时间,并确定信息流动与深度神经网络的可训练性之间的具体联系。
Jun, 2024
引入一种新的紧凑型神经网络结构,该结构使用联合优化框架进行训练,包括一个全训练神经网络和一个利用随机投影进行输入或中间表示转换的简单的 “投影” 网络。使用全网络来指导投影网络的训练。经过训练的小型网络可以用于低内存和计算成本的推理,并且在视觉识别和文本分类任务中保持良好的准确性。
Aug, 2017
本研究评估了 31 种不同的神经架构搜索性能预测器,测试了多种性能衡量方法以及它们在加速基于预测的 NAS 框架方面的有效性,结果表明有些预测器组合可以实现更好的预测能力,并提供了不同设置下最佳预测器的建议。
Apr, 2021
该研究提出了一种新的深度神经网络准确性预测器,可以预测未知输入数据集的分类性能,在不需要任何训练的情况下,在单个 GPU 上每秒超过 100 个网络,大规模架构搜索只需要几分钟。
Jun, 2018
本文介绍了一种名为 “HighWay Network” 的新型深度神经网络模型,采用门控单元对信息流进行监控,以实现高效的信息传递,从而克服了训练深度神经网络的问题。
Jul, 2015
本研究提出了一种有利于评估不同卷积神经网络体系结构的系统性语言,该语言能够在训练前进行比较,本研究使用该语言在两个具体的基于计算机视觉的物理问题上,解决了事件顶点查找和强子多重性分类问题,同时提取了优化网络架构中的几个架构属性,使用机器学习模型对其进行了预测。
Jan, 2020
通过剪枝和迁移学习,我们提出了一种新颖的前馈神经网络构建方法,能在不损失准确率的情况下压缩参数数量超过 70%,并且通过精心选择剪枝参数,大多数精炼模型的性能优于原始模型,从而不仅有助于更高效的模型设计,而且更有效的使用。
Dec, 2023
通过改进计算机视觉模型的网络设计,特别是针对多尺度计算机视觉任务的新网络设计,这篇研究论文旨在超越现有文献中的基准设计,保证了公平的比较,并公开了代码。
Feb, 2024