Zenkai — 超越反向传播的探索框架
本篇论文提出一种基于演化有向无环图的算法框架,自动生成高效的深度神经网络并优化其相关超参数,与已有文献中的搜索空间相比更具灵活性,能优化网络的结构和超参数,已经在时间序列预测基准测试中得到了实验结果的验证。
Feb, 2023
参数化机器学习加速器可通过硬件加速深度神经网络和非神经网络的机器学习算法进行设计空间探索,其中采用了物理设计驱动的学习预测框架,结合后端功耗、性能和面积分析以及前端性能模拟,实现了对后端 PPA 和运行时能耗等系统指标的真实估计,并引入了完全自动化的设计空间探索技术,通过对架构和后端参数的自动搜索来优化后端和系统指标。实验结果表明,该方法在两种深度学习加速器平台(VTA 和 VeriGOOD-ML)的 ASIC 实现中,无论是商业 12 纳米工艺还是研究导向的 45 纳米工艺,都能以平均 7%或更低的预测误差一致准确地预测后端 PPA 和系统指标。
Aug, 2023
通过使用具有随机初始化的无限宽度深度网络集合的马尔可夫接近学习模型,结合数值评估来合并和统一神经切向核(NTK)和神经网络高斯过程(NNGP)理论,并提供对机器学习中深度神经网络学习过程的全面理解。
Sep, 2023
我们提出了一个统一的优化框架,用于训练不同类型的深度神经网络,并在任意损失、激活和正则化函数上建立其收敛性。该框架推广了众所周知的一阶和二阶训练方法,并允许我们展示这些方法在各种深度神经网络架构和学习任务中的收敛性为我们的方法的一种特殊情况。
May, 2018
介绍了一种针对深度神经网络进行有监督训练、无监督训练以及强化学习的新算法,运用标准随机梯度下降法和梯度剪裁法对神经网络进行更新,提出了一种稳定输出层且范围明确的新型激活函数,得出结论:神经网络的更新值稳定,训练更加精确与流畅。
May, 2023
本文提出了一种新颖的信息论框架,用其自己的遗憾和样本复杂度分析机器学习的数据需求,并用该框架研究了由具有 ReLU 激活单元的深度神经网络生成的数据的样本复杂度,并在权重的特定先验分布下建立了同时独立于宽度和线性深度的样本复杂度界限。
Mar, 2022
该研究介绍了语义特征作为一种完全可解释的神经网络层的概念框架,并提出了一个证明概念模型,解决了 MNIST 相关子问题,该模型由 4 个这样的层组成,具有 4.8K 个可学习参数,模型易于解释,在没有任何形式的对抗训练的情况下,实现了与人类级别的对抗测试准确性,需要很少的超参数调整,并且可以在单个 CPU 上快速训练,该技术具有通用性,有望实现对完全可推广的白盒神经网络的范式转变。
Mar, 2024
本文提出了一个基于 FPGA 的 DNN 加速器设计框架 DeepAxe, 考虑了准确性、可靠性和硬件性能之间的平衡,通过功能逼近来减少硬件平台的计算负担,为目标资源利用要求提供了一组 Pareto 最优的 DNN 实现设计空间点。
Mar, 2023
这篇文章介绍了关于神经网络的统计理论,从三个角度进行了综述:非参数回归或分类中关于神经网络过度风险的结果,神经网络的训练动力学以及生成模型中的最新理论进展。
Jan, 2024