学习内存访问模式
本文综述深度学习、电晕电阻存储器(Memristors)和尖峰神经网络等人工智能领域的新技术。文章重点讨论了依赖非冯・诺依曼体系结构的计算和定制学习和推理算法的必要性,并展望了未来神经形态的计算系统。
Apr, 2020
低功耗、自主学习的人工智能 (AI) 系统对于能够应用于边缘设备并快速适应特定场景的需求日益增长。本文将学习到学习 (L2L) 的概念与基于相变存储器设备的内存计算神经形态硬件 (NMHW) 相结合,构建了能够快速适应新任务的高效 AI 模型。通过两种场景的实证表明了我们方法的多功能性:一个卷积神经网络进行图像分类,以及一个生物启发的脉冲神经网络为真实机械臂生成运动指令。这两个模型在少量参数更新的情况下快速学习,并在 NMHW 上性能与软件等效。此外,这些模型的元训练可以在高精度的软件环境中完成,无需准确的硬件模型。
Apr, 2024
该论文提出了一种通过利用机器学习技术加速计算机体系结构模拟的方法,该方法利用应用特征和微架构特征的组合来预测应用程序的性能,通过构建和评估一个机器学习模型展示了在体系结构探索方面的显著加速能力。
Feb, 2024
该研究旨在开发一种新型的计算机架构,将内存增强神经网络(MANN)与计算存储器单元相结合,以实现在高维向量上的模拟内存计算,并使用基于内容的注意机制来处理此计算存储器单元上的数据,并在 Omniglot 数据集上展示出良好的性能来完成少样本图像分类任务。
Oct, 2020
本文概述了深度学习的一些关键多层人工神经网络以及使用多智能体方法的新型自动体系结构优化协议;以及深度学习在异常行为检测、预测和预测分析、医学图像处理和分析、电力系统研究等应用领域的探索性调查。
May, 2019
大型语言模型的推出带来了自然语言处理领域的重大变革,本文调查了与转换器模型有关的各种 CIM 构架以及它们如何解决现代人工智能计算系统面临的挑战。
Jun, 2024
通过分析利用数据局部性提高机器学习算法性能的方法,本文发现了通过改变数据访问模式以增加局部性可以显著提高给定算法性能的机会和使用重复计算结果来避免冗余的机会,并且在一些选定的机器学习算法上记录了这种重复计算结果的可能性,并提供了相关实验结果。
Apr, 2019