Sep, 2023

比较 Llama-2 和 GPT-3 LLMs 用于 HPC 内核生成

TL;DR我们评估了开源 Llama-2 模型在不同并行编程模型和语言上生成众所周知的高性能计算内核(例如 AXPY、GEMV、GEMM)的使用情况。我们使用简单的提示通过 GitHub Copilot 基于 OpenAI Codex 生成类似的内核,以比较 Llama-2 和我们原始的 GPT-3 基准的准确性,并报告了基于这些基础的大型语言模型的区别,因为生成式人工智能继续重新定义人机交互。总体而言,Copilot 生成的代码更可靠但不太优化,而 Llama-2 生成的代码在正确时更优化但不太可靠。