用于实时神经科学实验的 LFADS 的 FPGA 部署
LFADS 是一种基于变分自编码器的时序模型,在神经科学中应用广泛,能够通过推断出潜在动力学,对同时记录的高维神经放电数据进行低维度因子分析。
Aug, 2016
基于动力系统的潜在因素分析(LFADS)是一种基于 RNN 的变分时序自编码器,可在科学和工程领域中实现去噪高维神经活动的最先进性能。lfads-torch 是 LFADS 的一个新开源实现,利用动态计算图、简化配置文件和大规模训练,统一了现有的变体,并旨在更易理解、配置和扩展。
Sep, 2023
提出了一种非线性生成模型 fLDS,并使用变分推断技术来拟合该模型,并在两种神经数据集上应用,与最先进的神经人口模型相比,fLDS 可用较少的潜在维度捕捉更多的神经变异,提供更好的预测性能和可解释性
May, 2016
本文介绍了用于解决 SLAC 数据实验的高速探测器的存储问题的解决方案 —— 用机器学习技术在边缘计算设备上实现实时数据处理的 SLAC 神经网络库框架,该框架采用基于 FPGA 的加速器来实现 ML 解决方案,并且支持所有权重的 RTL 重训练和恢复。
May, 2023
介绍了基于 FPGA 进行神经网络推理的案例研究,其使用高级综合技术(HLS)构建机器学习模型,旨在为粒子物理学的高速实时事件处理提供支持,适用于很多场合,如寻找新的暗扇区粒子和测量希格斯玻色子等。
Apr, 2018
对于展现时空动态响应的系统的演化进行预测是促进科学创新的关键技术,传统基于方程的方法需要大规模并行计算平台和大量的计算成本。相比之下,我们提出了一种名为 Latent Dynamics Network 的新型架构,该架构使用降维和深度学习算法来描述系统演化的低维潜在空间,从而预测空间依赖场对外部输入的时间演化,并在几个测试案例上验证了该方法的高效性和精确性。
Apr, 2023
本文提出了一种 ADRC 结合 SGD 算法来快速且准确地分析高维不完整矩阵的潜在因子,并在两个高维不完整数据集上的实证研究中表明,该模型在计算效率和准确性方面优于现有的 LFA 模型。
Jan, 2024
本文提出了一种可扩展的加速器体系结构 DLAU,通过在 FPGA 上实现,使用三个流水线处理单元来提高吞吐量并利用瓦片技术探索深度学习应用程序的局部性来提高性能和维护低功耗,实验结果表明 DLAU 加速器与 Intel Core2 处理器相比,速度提高了 36.1 倍,功耗为 234mW。
May, 2016
动态计算已成为提高深度网络推理效率的一种有前途的方法,我们提出了一个名为 “LAUDNet” 的框架,它集成了三个主要的动态范例,以缩短模型的延迟,通过算法设计与调度优化相结合,准确衡量动态操作延迟的潜在预测器指导。我们在多个视觉任务上测试了 LAUDNet,其在 V100、RTX3090 和 TX2 GPU 上能够显著降低 ResNet-101 等模型的延迟超过 50%,而且在准确性和效率之间取得良好的平衡。
Aug, 2023
本研究提出了一种新的基于预训练卷积神经网络的特征异常检测算法(FADS),它无需调整 CNN 权重就能表现出优秀的性能,能够准确地检测工业自动化和零部件质量保证中的异常情况,同时可以用于增材制造和过程参数变化检测。
Apr, 2022