利用 LLM 辅助生成硬件断言
该研究使用八个代表性基准测试探究了领先技术的对话式大型语言模型在功能和验证目的上生成 Verilog 的能力和限制。结果表明,大型语言模型在硬件模块的设计和测试中具有潜力,并可朝着全自动数字设计流程的进展迈进。
Apr, 2024
通过整合大型语言模型(LLMs)到 SoC 安全验证范式中,我们在现有 SoC 安全方案的限制性能、全面性和适应性方面的差距中开辟了新的可能性和挑战,旨在实现更高效、可扩展和可适应的方法。
Oct, 2023
介绍了 LLM4SecHW,这是一个利用领域特定的大型语言模型(LLM)的硬件调试新框架。通过收集开源硬件设计缺陷和纠正步骤的版本控制数据,利用精调的中型 LLM 模型,能够准确地识别和修复硬件设计缺陷,实现自动控制硬件质量控制流程。
Jan, 2024
通过大语言模型 (LLM) 设计了一种新型流程,从自然语言规范中生成英语语言、线性时态逻辑和 System Verilog Assertion (SVA) 的断言,并使用测试平台验证生成的断言,验证结果表明 LLM 可以简化断言生成工作流程,改变验证工作流程。
Jan, 2024
将大型语言模型 (LLM) 集成到覆盖指导测试生成 (CDG) 过程中,使用自设计的 Verilog 基准套件,与随机测试比较,实验证明我们的框架在 LLM 的理解范围内优于随机测试,并提出了改进 LLM 理解范围和准确性的提示工程优化。
Jun, 2024
基于大型语言模型(LLMs)和静态分析相结合,开发了一个基于 Rust 的形式验证框架 Verus 的原型。通过将验证任务分解为多个较小的任务,迭代地查询 GPT-4,并将其输出与轻量级静态分析相结合,这个原型显著减少了编写入门级证明代码的人力工作。
Nov, 2023
Laurel 是一种使用大型语言模型(LLMs)自动生成 Dafny 程序的辅助断言的工具,通过两种领域特定的提示技术,能够提高 LLMs 在此任务中的成功率,从而使 LLMs 成为进一步自动化实际程序验证的可用且经济实惠的工具。
May, 2024
该论文提出了一种专门为评估大型语言模型在硬件设计和验证中的 Verilog 代码生成性能而设计的基准测试框架,演示了预训练语言模型的 Verilog 代码生成能力可以通过使用 LLM 生成的合成问题 - 代码对进行监督微调来提高。
Sep, 2023