AuditGPT:使用 ChatGPT 对智能合约进行审计
通过实验结果表明,尽管 GPT-4 在智能合约漏洞检测方面表现不佳,但其在合约代码解析和实例证明编写方面表现出重要的潜力,可以作为辅助工具增强智能合约安全审计的效率和效果。
Feb, 2024
利用 GPT 与静态分析结合的智能合约逻辑漏洞检测工具 GPTScan,具有高准确度和低误报率,快速且经济高效。
Aug, 2023
利用大型语言模型,本研究提出了 PropertyGPT 系统,该系统可以通过生成可编译、适当且可验证的自定义属性来检测代码缺陷和安全漏洞,实验结果显示其能够生成高质量的属性,相较于真实情况,其召回率达到 80%。
May, 2024
通过我们进行的持续研究,本文对利用 LLMs 挖掘智能合约中的漏洞的机遇、挑战和潜在解决方案进行了系统分析。我们提出了一种对抗性框架 GPTLens,通过将传统的一阶段检测分为两个协同的阶段 —— 生成和判别,以实现渐进检测和微调。GPTLens 是直观的、策略性的,完全依靠 LLM 驱动,展示了其方法的普遍性和发现广泛漏洞的潜力。
Oct, 2023
通过系统评估大型语言模型在智能合约代码生成方面的质量,研究发现生成的智能合约存在安全漏洞以及代码质量和正确性受到影响,但也提出了改进过程、质量和安全性的多个潜在研究方向。
Aug, 2023
大型语言模型可以提高对法律系统的访问,但是目前很少有关于它们在进行法律任务方面有效性的实证研究。本研究以涉及加密货币的证券案件为背景,研究了语言模型的法律推理和起草能力。我们使用真实案例的情节喂给 GPT-3.5,并评估其确定正确违规行为的能力。研究发现,GPT-3.5 的法律推理能力较弱,但在法律起草方面表现更好。虽然目前无法取代律师,但这些模型的起草能力可以通过降低法律服务成本,为更多人提供司法公正的机会。本研究是第一个系统研究大型语言模型在诉讼、证券法和加密货币相关不当行为中的法律起草和推理能力的研究。
Aug, 2023
这篇论文评估了 ChatGPT(GPT-3.5、GPT-4)对数字取证领域的影响和潜在影响,重点关注最新的预训练 LLM GPT-4,通过一系列实验评估了它在包括文物理解、证据搜索、代码生成、异常检测、事件响应和教育等多个数字取证应用场景中的能力,并总结了它的优势和风险。综合而言,尽管 ChatGPT 在数字取证领域存在一些潜在的低风险应用,但很多应用目前不适用,因为需要将证据上传至服务端,或者需要对所询问的话题具有足够的知识以识别错误的假设、不准确性和错误。然而,对于合适的知识用户而言,在某些情况下,它可以作为一个有用的辅助工具。
Jul, 2023
大语言模型(LLMs)在法律领域近期受到了很多关注,因为它们具备处理各种法律任务的新兴能力。然而,目前还不清楚 LLMs 是否能够像律师一样分析法律案例并进行推理。因此,我们构建了一个新颖的语料库,其中包含与马来西亚合同法和澳大利亚社会法的相关情景。采用 IRAC 方法将 ChatGPT 应用于语料库的分析,IRAC 方法是法律专业人员广泛使用的组织法律分析的框架。语料库中的每个情景都以半结构化格式注释了完整的 IRAC 分析,以便机器和法律专业人员能够解释和理解这些注释。此外,我们首次对 ChatGPT 在 IRAC 分析方面进行了实证评估,以了解它与法律专业人员分析的吻合程度。我们的实验结果为提高 LLMs 与法律专家在法律推理方面的对齐性指明了可能的未来研究方向。
Oct, 2023
本文探索了 ChatGPT 在涉及完整漏洞管理过程的六项任务中的能力,并使用包含 78,445 个样本的大规模数据集对其进行了比较。结果表明 ChatGPT 在辅助漏洞管理方面具有巨大的潜力,但同时也揭示了它所遇到的困难,并为未来的研究方向提供了启示。
Nov, 2023
该研究探讨了 ChatGPT 与加密货币欺诈之间的复杂相互作用,展示了通过操纵 ChatGPT 提示来影响结果、绕过道德条款并实现特定欺诈目标的方法,强调了对于初学者欺诈者来说 ChatGPT 可能是有价值的指导者,以及在密码货币欺诈的背景下理解、安全地使用复杂语言模型的重要性,同时指出在数字货币领域负责任和道德使用 LLMs 的重要性,以识别潜在风险并解决道德问题。
Jun, 2024