MechAgents:大型语言模型多智能体协同解决机械问题、生成新数据和整合知识
本研究提出了一种新颖的方法,将预训练的 LLMs 与有限元模块集成。FEM 模块评估每个设计并提供必要的反馈,引导 LLMs 不断学习、规划、生成和优化设计,无需进行特定领域的训练。我们通过对桁架结构的迭代优化进行实证研究,展示了提出的框架的有效性,显示它能够根据结构化反馈和标准进行推理和改进设计。我们的结果显示,这些基于 LLM 的代理能够以高达 90% 的成功率生成符合自然语言规范的桁架设计,但成功率根据应用的约束条件而变化。我们通过采用基于提示的优化技术表明,当向 LLM 代理提供解决方案 - 评分对以迭代地改进设计以满足规范时,它们具备优化行为能力。LLM 代理能够生成可行的设计并根据其内在推理能力进行优化的能力,突显其实现自主设计策略的潜力。
Apr, 2024
设计了一个灵活的智能体工程框架,着重规划和执行,适用于多个领域的复杂应用,提供可靠性的工业应用,并提出了确保多个自主智能体共同解决任务的可扩展、灵活和协作式工作流技术。
Jun, 2024
本文探讨了基于多代理系统理论(SMA)与大型语言模型(LLM)的计算实体的动态影响,这些实体的特点是能够模拟复杂的人类互动,作为一种从使用专门的人工代理支持运营业务流程到基于应用知识和人类编排的战略决策的革命可能性。我们展示了利用基于大型语言模型(LLM)的代理开发,通过考虑行为元素并由策略驱动,从而刺激基于使用案例在商业场景中生成知识的能力,利用代理之间的讨论方法(引导式对话),为组织战略提供潜力,基于多代理系统理论(SMA)和创新的大型语言模型(LLM)的应用,为不同的应用、复杂性、领域和 LLM 的能力提供了一种不同和可适应的实验。
Mar, 2024
通过精细调整的大型语言模型 (LLM),本研究探索了多尺度材料失效知识的提取、各种语言任务执行、假设生成和跨领域知识联系的能力。同时通过本体知识图结构,该模型能提供解释性洞察、新研究问题的框架,以及知识的可视化呈现,并且可用于检索增强生成。
Oct, 2023
大规模语言模型(LLMs)在化学领域中以其准确预测性能、设计新分子、优化合成路径和加速药物和材料发现等能力成为一个强大的工具。本综述讨论了 LLMs 的历史、性能、设计以及在化学领域的挑战和未来方向,特别关注于代理人(agents)及其作为一个跨化学模式的出现。代理人在化学的各个领域中表现出了很好的效果,但依然存在挑战。开发面向特定领域的代理人和开发自主流程与 “副驾驶” 系统的对比对于加速化学进程尚不清楚。一种新兴的方向是开发使用人工智能辅助的多代理人系统。由于该领域的快速发展,已经建立了一个仓库,以追踪最新研究。
Jun, 2024
大型语言模型(LLMs)正在改变人工智能,使得自主代理能够在不同领域执行多样化任务。这些代理具备类似人类的文本理解和生成能力,有望在从客户服务到医疗保健等各个领域引发革命。然而,它们面临着诸如多模态、人类价值取向、幻觉和评估等挑战。推动、推理、工具利用和上下文学习等技术正在被探索,以增强它们的功能。像 AgentBench、WebArena 和 ToolLLM 这样的评估平台为在复杂场景中评估这些代理提供了强大的方法。这些进展正在引领更加有韧性和能力的自主代理的发展,预计它们将成为我们数字生活中不可或缺的一部分,协助我们完成从邮件回复到疾病诊断等任务。拥有 LLMs 带头的人工智能的未来充满了希望。
Apr, 2024
该研究利用生成式人工智能、数学代理、数学嵌入等方法解决信息系统生物学领域的老化问题,并应用多尺度物理数学和基因组数据来分析疾病模型和基因组数据,以探索未解决的阿尔茨海默病问题。
Jul, 2023
我们报道了一种灵活的多模态力学语言模型 MeLM,应用于解决各种非线性正向和反向问题,可以处理一组指令、数字和微观结构数据。该框架应用于各种示例,包括生物启发的分层蜂窝设计、纳米碳管力学和蛋白质展开。虽然该模型具有灵活的特性,可以轻松整合多种材料、尺度和力学特性,但它在不同的正向和反向任务中表现良好。基于自回归注意力模型,MeLM 有效地表示由数亿个神经元组成的大型多粒子系统,其中通过形成图形的自我注意机制发现相互作用势能,然后利用训练数据中发现的协同作用来确定新兴结构的关系。我们展示了该模型可以解决复杂的退化力学设计问题,并在各个分层级上确定新颖的材料体系结构,为材料发现和分析提供了一种途径。除了本文报告的示例外,我们还讨论了应用力学中的其他机会以及关于在建模、设计和分析中使用大型语言模型的一般考虑,这些模型可以跨越从力学、热学、光学到电子等广泛的材料属性的领域。
Jun, 2023
本研究探讨了在能源和电力工程领域中使用大型语言模型(LLMs)与可调用工具进行研究,并重点关注燃气轮机的燃气通道分析。我们开发了双代理工具调用过程,以整合专家知识、预定义工具和 LLM 推理。我们评估了包括 LLama3、Qwen1.5 和 GPT 在内的各种 LLMs。较小的模型在工具使用和参数提取方面存在困难,而较大的模型展示了较好的能力。所有模型都面临着复杂、多组分问题的挑战。基于测试结果,我们推测具有近 1000 亿参数的 LLMs 可以通过精调和先进的提示设计满足专业场景需求。持续的发展可能提高其准确性和效果,为更强大的基于人工智能的解决方案铺平道路。
Jun, 2024