Theano是一种线性代数编译器,优化使用者的符号指定的数学计算,以产生高效的低级实现。本文介绍了Theano的新功能和效率改进,并展示了Theano相对于Torch7和RNNLM的性能优势。
Nov, 2012
本文介绍了一个基于Theano实现的AlexNet,并实现了数据并行性在多GPU上运行。在用2个GPU运行该模型时,性能相当于Caffe库在1个GPU上运行。这是迄今为止第一个开源的基于Python的AlexNet实现。
Dec, 2014
本文比较了五种深度学习框架(Caffe,Neon,TensorFlow,Theano和Torch)在三个方面的性能(可扩展性,硬件利用率和速度指标),并评估了它们在训练和部署各种深度学习结构时的性能。 研究结果表明:Theano和Torch是最易于扩展的框架,中央处理器上最适用的框架是Torch,然后是Theano,此外Caffe可以轻松地评估标准深度结构的性能,TensorFlow是非常灵活的框架,但目前其性能与其他研究的框架相比不具竞争力。
Nov, 2015
Theano是一个Python库,可高效地定义,优化和评估涉及多维数组的数学表达式,在机器学习社区中一直以来是最常用的CPU和GPU数学编译器之一,并显示稳定的性能改进。
May, 2016
本文提出BlockSwap算法通过使用一种收集神经元网络嵌套块的方法,以选择网络块类型的交织组合,进而达到快速探索可能的块配置和分类的目的。
Jun, 2019
该论文提出了一种介于一阶方法和二阶方法之间的“mini-block Fisher (MBF)”预处理梯度方法,利用 GPU 的并行性实现了对每个层中大量矩阵的高效计算,且在时间效率和泛化能力方面都优于基线方法,并被证明其理想版本能够呈线性收敛。
Feb, 2022
本文介绍了DeepBlocks可视化编程工具,它可以帮助深度学习开发者在不需要使用特定编程语言的情况下设计、训练和评估模型,结果表明该工具可以帮助开发者可视化设计复杂的深度学习架构。
Mar, 2023
新技术对于大规模采用风能和太阳能等可再生能源是必要的。发现适合的催化剂对于使能量储存更具成本效益和可扩展性至关重要。这项研究旨在评估使用更轻量级方法在这一任务中获得的性能和洞察力,以鼓励来自不同背景的个人的参与。通过实施稳健的设计模式,如几何和对称的信息传递,我们能够训练一个GNN模型,在仅使用一小部分可训练参数的情况下,达到了0.0748的平均绝对误差,与SchNet和DimeNet++等已建立的模型架构相媲美。
Apr, 2024
通过在预训练的深度神经网络模型的卷积和全连接层参数中将特定区域置零,实现权重块稀疏性,提高了神经网络的推理速度,减小了内存占用和计算负载。在使用Resnet50模型中,权重减少一半的同时保持准确性损失最小,推理速度提高两倍。
Jul, 2024
本研究解决了训练人工神经网络的编译效率与性能问题,提出了一种基于C++、LLVM和Cuda的Jitted编译器,具备面向对象特点和Python风格的语法。实验结果表明,在CIFAR-10基准测试中,该编译器在性能和速度上与PyTorch相当,显示出良好的应用潜力。
Sep, 2024