不同大型语言模型在生成智能合约中的效能
在这篇论文中,我们提出在区块链上训练和部署动态大型语言模型,以解决大型语言模型所需的大量计算资源和其静态性的问题,并为下一代人工智能系统提供了一种新的开发方法。
Jul, 2023
通过系统评估大型语言模型在智能合约代码生成方面的质量,研究发现生成的智能合约存在安全漏洞以及代码质量和正确性受到影响,但也提出了改进过程、质量和安全性的多个潜在研究方向。
Aug, 2023
通过使用基于Transformer的大型语言模型技术,我们提出了一种新颖的脆弱性约束解码方法,通过在代码生成过程中包含脆弱性标签,来减少由这些模型生成的脆弱代码的数量。我们对GPT-J模型进行微调,并应用脆弱性约束解码来自动完成以太坊区块链智能合约,结果表明这种方法可以有效地避免自动完成代码的脆弱性。
Sep, 2023
通过我们进行的持续研究,本文对利用LLMs挖掘智能合约中的漏洞的机遇、挑战和潜在解决方案进行了系统分析。我们提出了一种对抗性框架GPTLens,通过将传统的一阶段检测分为两个协同的阶段——生成和判别,以实现渐进检测和微调。GPTLens是直观的、策略性的,完全依靠LLM驱动,展示了其方法的普遍性和发现广泛漏洞的潜力。
Oct, 2023
MazzumaGPT是一种经过优化、可生成智能合约代码的大型语言模型,旨在帮助开发人员构建Web3应用并提高生产力。本研究介绍了模型的优化和微调参数,评估了其在功能正确性上的性能,并讨论了我们研究的局限性和广泛影响。
Oct, 2023
大型语言模型(Large Language Models,LLMs)被广泛应用于各种应用中,代码生成作为一个显著例子。本文聚焦于确定和理解在真实场景中,LLMs可有效且安全地用于生成高质量代码的条件和环境。通过对四个先进的LLMs(GPT-3.5和GPT-4,ChatGPT,Bard和Gemini)进行比较分析,使用9个不同任务评估每个模型的代码生成能力。我们将研究情境化,以代表日常工作中开发人员使用LLMs执行常见任务的典型用例。此外,我们强调安全意识,通过使用我们的开发者角色的两个不同版本来表示。总共我们收集了61个代码输出并分析了其功能性、安全性、性能、复杂性和可靠性等方面。这些洞见对于理解模型的能力和限制非常重要,并指导未来在自动化代码生成领域的开发和实际应用。
Feb, 2024
通过将两个不同的大型语言模型融合到一个统一的框架中,我们的研究展示了 SolMover 的先驱性方法,它能够理解编码原则并将此理解应用于将智能合约从 Solidity 转化为资源有限的 Move 语言。通过实证实验,我们的研究结果表明 SolMover 大大提升了性能,并且在缺乏规划能力的第二个语言模型中具备编码专长,使其在代码质量方面取得了优异的成果。同时,我们的分析突出了在 SolMover 框架之外,我们所采用的错误缓解策略在提升代码质量方面的效力。
Mar, 2024
利用大型语言模型,本研究提出了PropertyGPT系统,该系统可以通过生成可编译、适当且可验证的自定义属性来检测代码缺陷和安全漏洞,实验结果显示其能够生成高质量的属性,相较于真实情况,其召回率达到80%。
May, 2024
本研究解决了Solidity智能合约中日益严重的安全漏洞问题,通过引入VulSmart数据集并开发SmartVD框架,评估大型语言模型在检测OWASP前十漏洞中的效果。研究发现,SmartVD在检测漏洞的准确性、类型识别和严重性评估方面优于其他开源和闭源模型,特别是在使用“思维链”提示策略时展现最佳性能。
Sep, 2024