基于生成检索增强的本体图和多智能体策略的解释性大型语言模型材料设计
使用来自知识图谱的规划数据,我们介绍了一种增强大型语言模型在复杂问答任务中的性能的新框架,通过使用这些数据对 LLMs 进行微调,提高其规划能力,更好地处理涉及检索的复杂 QA 任务。我们的框架在多个数据集上进行评估,包括我们提出的新基准,突出了其有效性和知识图谱派生规划数据的好处。
Jun, 2024
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。
May, 2023
通过精细调整的大型语言模型 (LLM),本研究探索了多尺度材料失效知识的提取、各种语言任务执行、假设生成和跨领域知识联系的能力。同时通过本体知识图结构,该模型能提供解释性洞察、新研究问题的框架,以及知识的可视化呈现,并且可用于检索增强生成。
Oct, 2023
在科学领域,LLMs 的幻觉问题是必须解决的,因为可重现性是至关重要的。本文介绍了 LLaMP,这是一个多模态检索增强生成(RAG)框架,由多个数据感知推理和行动(ReAct)代理组成,动态与 Materials Project(MP)上的计算和实验数据交互。LLaMP 在不进行精细调整的情况下,能够理解和整合各种材料科学概念的多模态信息,实时获取相关数据,处理高阶数据(如晶体结构和弹性张量),并对固态合成的多步骤过程进行总结。同时,LLaMP 能有效纠正 GPT-3.5 在频繁文档中的带隙和形成能量方面的错误,并将钻立方硅结构的虚幻体积应变从 66.3%降低到 0。该框架为材料信息学提供了一种直观且几乎无幻觉的方法,并为知识蒸馏和精细调整其他语言模型奠定了基础。我们设想该框架作为科学假设的有价值组成部分,并为未来的自主实验室奠定基础,多个 LLM 代理与机器人通信和协作,驱动材料合成和化学反应,无需硬编码的人类逻辑和干预。
Jan, 2024
我们提出了一种创新的端到端生成框架,用于多模态知识检索,通过利用大型语言模型 (LLMs) 作为虚拟知识库,使用对象感知的前缀调优技术来指导多粒度视觉学习,将多粒度视觉特征对齐到 LLM 的文本特征空间中,通过统一格式的指令数据构建模型训练,最后,我们提出了知识引导的生成策略,在解码步骤中施加先验约束,促进独特知识线索的生成,在三个基准测试中实验证明,与强基线方法相比,在所有评估指标上均取得了 3.0% 到 14.6% 的显著改进。
Jan, 2024
评估先进的大型语言模型(LLMs)在材料科学领域的科学文档中提取结构化信息的能力,并引入了一种比较分析复杂材料表述的新方法,重点是采用化学式的标准化来解决材料科学信息评估中固有的复杂性。LLMs 在指定的两个关键任务中展现出不同的表现:对于命名实体识别(NER)任务,LLMs 未能超越基准模型和规则基模型,对于关系抽取(RE)任务,经过适当策略的 GPT-3.5-Turbo 优于所有模型,而 GPT-4 和 GPT-4-Turbo 在没有经过任何调优的情况下,在仅提供几个示例的情况下展示出出色的推理和关系抽取能力,超越了基准模型。总体而言,结果表明,虽然 LLMs 在连接概念方面展示出相关的推理能力,但对于需要提取复杂领域特定实体(如材料)的任务来说,专门的模型目前是更好的选择。
Jan, 2024
利用 Transformer 架构的大型语言模型在教育领域引起了广泛关注,主要应用包括生成和评估教育材料、自动问题生成等,其中 GTP-3 和 BERT 是最受欢迎的模型。
May, 2024
本文介绍了一种名为 ChatLR 的新型检索增强框架,主要利用大型语言模型(LLMs)的强大语义理解能力作为检索器,以实现精确和简洁的信息检索。通过在金融领域微调 LLM 并构建基于 LLM 的搜索和问答系统,实验证明 ChatLR 在解决用户查询中表现出高达 98.8%的信息检索准确性。
May, 2024