Mar, 2024

NASH:硬件优化机器学习模型的神经架构搜索

TL;DR机器学习算法在不断增加的应用中需要在高准确性、高吞吐量和低延迟之间实现更好的权衡。本论文介绍了一种名为 NASH 的新方法,将神经架构搜索应用于机器学习硬件中。通过使用 NASH,硬件设计可以同时达到更高的吞吐量、低延迟和更好的准确性性能。该论文介绍了 NASH 策略的四个版本,所有版本均显示出比原始模型更高的准确性。实验结果表明,在 ImageNet 数据集上,将 NASH 应用于 ResNet18 或 ResNet34 可以使 Top-1 准确性增加最多 3.1%,Top-5 准确性增加最多 2.2%。我们还将这种方法集成到 FINN 硬件模型合成工具中,以自动应用我们的方法和生成硬件模型。结果表明,使用 FINN 可以实现最大达到 324.5 帧每秒的吞吐量。此外,NASH 模型还可以在准确性和硬件资源利用率之间取得更好的权衡。准确性 - 硬件(HW)帕累托曲线显示,四个 NASH 版本的模型代表了在给定硬件利用率的情况下达到最高准确性的最佳权衡。我们的实现代码是开源的,可以在 GitHub 的链接处获得。