巨型语言模型能够提升分子属性预测吗?
利用 MolecularGPT,基于大规模语言模型对分子指令进行微调,并通过零样本和少样本的上下文学习,在少样本分子预测任务中取得新的竞争性结果,显示出语境推理能力优势,超过传统的图神经网络方法和现有语言模型基线,为语言模型在少样本分子特性预测中的应用发展提供了潜力。
Jun, 2024
DrugLLM 是一个专门用于药物设计的大型语言模型,在训练过程中使用基于群组的分子表示(GMR)来表示分子,通过预测基于过去修饰的下一个分子来学习如何修改分子,在有限的示例基础上生成具有期望特性的新分子,并具有强大的少样本分子生成能力。
May, 2024
ChemLLM 是第一个专门用于化学领域的大型语言模型,通过使用结构化化学知识构建对话系统,能够在化学学科中顺畅交互完成各种任务,包括名称转换、分子标题和反应预测,并在相关数学和物理任务中展现出出色的适应性。
Feb, 2024
本研究设计和装备 MolX 作为一种多模态外部模块,通过使用特定编码器从 SMILES 字符串和 2D 分子图表示中提取细粒度特征,从而增强了大型语言模型(LLMs)在理解分子方面的能力。实验结果表明,我们提出的方法在多种分子相关任务中表现出色,包括从分子到文本的翻译和分子的逆合成,无论是否对 LLM 进行微调。
Jun, 2024
将大型语言模型 (LLMs) 整合到化学领域是一个复杂的任务,本文以细致的方法论探索了该跨学科领域的复杂性和创新,从分子信息如何通过各种表示和标记方法导入 LLMs 开始,将化学 LLMs 分为三个不同的群体,并讨论了将这些输入整合到 LLMs 的方法,然后探讨了应用 LLMs 在化学中的多样化应用,包括在化学任务中的新范例,最后确定了有望的研究方向,包括进一步整合化学知识,持续学习的进展以及模型可解释性的改进,为该领域的突破性发展铺平了道路。
Feb, 2024
利用自然语言处理模型 GPT-MolBERTa,通过分析分子的详细文本描述来预测其性质,并展示模型的可解释性。
Sep, 2023
将自然语言和图形表示相结合,通过对齐神经图形表示和特性文本描述的表示,提高了下游分子属性分类任务的性能,实现了与仅以图形方式进行预训练的模型相比的 + 4.26% AUROC 的增益,并相对于最近提出的分子图 / 文本对比训练的 MoMu 模型 (Su et al. 2022) 的 + 1.54% 增益。
Jul, 2023
本文介绍了 LLM4GraphGen 模型,通过系统性任务设计和广泛的实验探索了大型语言模型在图生成方面的能力,并表明 GPT-4 在图生成任务中展现了初步能力,包括基于规则和分布的生成,同时发现流行的提示方法并不一致地提升性能。此外,LLM 在生成具有特定属性的分子方面展现了潜力,这些发现为基于 LLMs 的图生成模型的设计提供了基础,并提供了有价值的见解和进一步的研究方向。
Mar, 2024