本文研究了公开宣布具有性能和功耗数字的多核处理器和加速器的现状,发现其中一些趋势,包括功耗、数字精度以及推理与训练等方面的趋势,并选择并测试了两个低尺寸、重量和功率的商用加速器的实际表现,将其与报道的性能和功耗数值进行比较,并将其与嵌入式应用程序中使用的 Intel CPU 进行评估。
Aug, 2019
研究了大型语言模型在多个人工智能加速器和图形处理器上的性能特性,并评估了这些模型的性能,考虑到序列长度、扩展行为、稀疏性和梯度积累步骤的敏感性。
Oct, 2023
该研究综述了与优化大型语言模型性能和能源效率相关的硬件加速器,涵盖了多种加速器的体系结构、性能指标和能源效率考虑,并为研究人员、工程师和决策者在现实应用中优化大型语言模型的部署提供了有价值的见解。
Jan, 2024
该论文提出了一种通过利用机器学习技术加速计算机体系结构模拟的方法,该方法利用应用特征和微架构特征的组合来预测应用程序的性能,通过构建和评估一个机器学习模型展示了在体系结构探索方面的显著加速能力。
Feb, 2024
本报告介绍了由中关村实验室、中国工控系统网络应急响应中心、清华大学人工智能学院、RealAI 共同举办的人工智能安全大赛(AISC)中的三个赛道,包括 Deepfake 安全竞赛,自动驾驶安全竞赛和人脸识别安全竞赛的参赛规则和前几名队伍的解决方案。
Dec, 2022
在人工智能快速发展的领域中,大型语言模型(LLMs)和图处理已经成为自然语言处理(NLP)、计算机视觉和图结构数据应用的变革性技术。本文描述了基于硅光子学的新型硬件加速器,用于加速在 LLMs 和图神经网络中使用的 Transformer 神经网络进行图数据处理。我们的分析表明,这两种硬件加速器在吞吐量上至少实现了 10.2 倍的提升,并且在能源效率上比多个用于 LLMs 和图处理的最新电子硬件加速器提高了 3.8 倍。
提出了一种基于云端的机器学习平台 ACAI,通过实现云端存储、自动资源配置、日志记录和实验追踪等功能,提高了机器学习从业人员的工作效率。在 MNIST 手写数字分类任务上测试了自动资源配置器的效力,并通过实验和访谈研究了系统的可用性。结果显示,自动资源配置器提高了 1.7 倍的速度和 39%的成本降低,并在典型的机器学习应用中减少了 20%的实验时间。
人工智能通过深度神经网络持续增长,为了充分发挥其潜力,特定的硬件加速器成为必需品。本文介绍了如何使用抽象计算机体系结构描述语言(ACADL)对人工智能硬件加速器进行建模,并使用它们的描述将深度神经网络映射到加速器上,进而解释时间模拟语义来获取性能结果。
该论文概述了近年来深度学习加速器的最新进展,并分类了最具影响力的架构和技术,以便提供给读者一个全面的视角,最终提供了一些关于深度学习加速器未来挑战的见解,例如量子加速器和光子学。
Jun, 2023
AI-SPRINT 项目关注跨计算连续体的 AI 应用开发与实施,在个性化医疗、维护与检查以及农业 4.0 等实际应用中取得显著科学进展,集成了 AI-SPRINT 技术并实现了实时操作,有效应对各种挑战并优化流程。