LLMs 是有意义类型的代码结构
使用自然语言作为一种新的编程语言来描述任务过程,让其易于被人类和 LMMs 理解,并进一步借助 Learning to Program (LP) 方法通过学习来自训练集中的自然语言程序,优化复杂任务的问题解决能力,该方法在 AMPS 和数学两个数据集上的有效性得到验证,证明其性能超过直接零样本测试表现 18.3%。
Apr, 2023
通过定制化的大型语言模型 (LLM) 代理,采用提示工程、启发式推理和检索增强生成的元素,以保持结构化信息,我们提出了一种高效的混合策略,利用 LLM 进行安全分析和人工智能与人类的协同设计,以提高软件工程和安全工程中的生成式 AI 的质量要求,并确保人类对生成式 AI 提供的建议负责,通过图形表述作为系统模型的中间表示,促进了 LLM 和图形之间的交互,以简化的自动驾驶系统为案例说明了我们的方法。
Apr, 2024
生成型 AI 是当前最流行的 AI 方法之一,它包括大型语言模型(LLM),这些模型被训练成可以生成看似正确但不一定准确的输出。然而,它们在推理方面存在不足,导致 LLMs 的可靠性不完全。此研究提出了一种替代 AI 方法,通过使用明确的知识和经验规则对 AI 进行教育,从而使推理引擎能够自动推导出所有知识的逻辑蕴涵关系;该方法能够得到可信且可解释的结果。然而,使用高阶逻辑的推理引擎速度较慢,因此需要采用某种快速但表达能力较低的逻辑,如知识图谱。该研究还提出了将 LLM 方法与更正式的方法相结合的思路,以实现可信的综合型 AI。
Jul, 2023
通过将代码集成到大型语言模型的训练数据中,可以提高语言模型的代码生成能力、推理能力以及生成结构化和精确的中间步骤,并将其转化为智能代理在复杂自然语言任务中的应用。
Jan, 2024
SymbolicAI 是一个多功能、模块化的框架,采用基于逻辑的方法进行概念学习和流程管理,在生成过程中使生成模型与各种求解器无缝集成,并通过将大型语言模型 (LLMs) 视为语义解析器来执行任务,从而弥合符号推理与生成人工智能之间的差距。该框架利用概率编程原理解决复杂任务,并利用可微分和经典编程范式及其各自的优势。该框架还引入了一组多态的、组合的、自引用的数据流操作,将 LLM 输出与用户目标对齐,并支持创建和评估可解释性计算图。最后,我们介绍一种质量度量和其经验分数,用于评估这些计算图,并提出了一个基准,用于比较各种复杂工作流程的最新 LLMs。我们将经验分数称为 “Vector Embedding for Relational Trajectory Evaluation through Cross-similarity”,简称 VERTEX 分数。框架代码库和基准测试结果请参考下方链接。
Feb, 2024
机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
近年来,生成人工智能(GenAI)技术的普及,如预训练的大规模语言模型(LLMs),在计算法律领域开辟了新的前沿。本文介绍了在将人工智能应用于法规和合同法中自动化的基于规则推理的激动人心的领域,并提出了几个自动化软件测试和程序分析的概念,这些概念在利用人工智能进行法规和合同分析时可能非常有用。
Apr, 2024
本文探讨了使用大型语言模型进行编程的相似之处和不同之处,认为 LLM-assisted 编程应该被视为一种具有自己独特属性和挑战的新编程方式,并讨论了在将大型语言模型应用于非专业用户编程时可能出现的问题和研究挑战。
Aug, 2022
本研究旨在研究博弈论和生成人工智能的交叉领域,聚焦于大型语言模型在找到混合策略 Nash 均衡的游戏中的能力,发现了大型语言模型在运行代码和提供特定提示的情况下性能显著提高,但也揭示了在难以推断游戏的随机化策略时,大型语言模型的限制性。该论文致力于为博弈论和生成人工智能的交叉领域增添研究成果,同时提供有关大型语言模型优势和劣势的有价值洞察,并强调了进一步研究的必要性以克服大型语言模型的局限,尤其是在处理稍复杂情境时,以发挥其全部潜力。
Jun, 2024
对于 LLMs 的研究表明它们具有语义基础和生成文本的意义理解能力,并且通过应用心灵哲学和语言的含义理论的核心假设,发现 LLMs 在功能性、社会性和因果性的语义基础中都呈现基本证据,并发展出世界模型。因此,LLMs 并非随机模仿者或语义僵尸,而至少在初级情况下已经理解了它们所生成的语言。
Feb, 2024