将大型语言模型 (LLMs) 整合到化学领域是一个复杂的任务,本文以细致的方法论探索了该跨学科领域的复杂性和创新,从分子信息如何通过各种表示和标记方法导入 LLMs 开始,将化学 LLMs 分为三个不同的群体,并讨论了将这些输入整合到 LLMs 的方法,然后探讨了应用 LLMs 在化学中的多样化应用,包括在化学任务中的新范例,最后确定了有望的研究方向,包括进一步整合化学知识,持续学习的进展以及模型可解释性的改进,为该领域的突破性发展铺平了道路。
Feb, 2024
本文介绍了一种基于神经网络模型的消息传递神经网络 (Message Passing Neural Networks, MPNN), 并探索了 MPNNs 的衍生变体。在化学性质预测基准测试中,使用 MPNNs 获得了最先进的结果,表明将来的研究应该集中在具有更大分子或更精确地基础事实标签的数据集上。
Apr, 2017
利用 GALLON 框架,将 LLMs 与 GNNs 能力结合起来,通过提取多模态知识到一个统一的多层感知器模型(MLP),集成了分子的丰富文本和视觉数据与 GNNs 的结构分析能力,显著提高了分子性质预测的准确性和效率。
Jun, 2024
LLMs 在分子预测任务中的表现相对较弱,而与机器学习模型合作使用时,LLMs 有潜力提升模型性能。
Mar, 2024
通过 ChemBench 等评估框架,我们发现大型语言模型在化学科学中展示出卓越的能力,但仍需进一步研究以提高其安全性和实用性。
Apr, 2024
化学和人工智能的交叉领域是一个积极研究的领域,旨在加速科学发现;该研究聚焦于机器翻译化学语言和分子模型,并采用一种新的训练方法,通过对比优化来提高模型性能。
May, 2024
使用 Large Language Models (LLMs) 进行零 / 少量数据量的分子分类以及利用由 LLMs 生成的文本解释作为分子表示,可以大大提高分子属性预测的精度。
Jul, 2023
该研究探讨了大型语言模型(LLMs)在结构化数据(尤其是图形)上的应用,旨在理解何时以及为何将图形数据中固有的结构信息纳入到 LLMs 的节点分类任务中可以提高预测性能。
Sep, 2023
使用先进的优化算法和非线性融合,通过少量数据实现科学大语言模型的性能提升和新的最佳水平,并引入细粒度的评估方法来评估大语言模型中的虚构能力和促进负责任的使用。
ChemLLM 是第一个专门用于化学领域的大型语言模型,通过使用结构化化学知识构建对话系统,能够在化学学科中顺畅交互完成各种任务,包括名称转换、分子标题和反应预测,并在相关数学和物理任务中展现出出色的适应性。