ReLM:利用语言模型提升化学反应预测
通过结合过程文本并使用两种主要方法(ReacLLaMA-Adapter 和 Zero-Shot Labeling ReacLLaMA),改进 Graphormer 反应模型的准确性,提高了对不良反应的辨别能力,从而提供了更准确的具有改进特异性的化学反应模型。
Jan, 2024
该研究提出使用化学反应来辅助学习分子表示,强制规定化学方程中反应物嵌入和生成物嵌入之和相等,以保持嵌入空间的良好组织,并提高分子嵌入的泛化能力。实验结果表明,该方法在多个下游任务中获得了最先进的性能。
Sep, 2021
ChemLLM 是第一个专门用于化学领域的大型语言模型,通过使用结构化化学知识构建对话系统,能够在化学学科中顺畅交互完成各种任务,包括名称转换、分子标题和反应预测,并在相关数学和物理任务中展现出出色的适应性。
Feb, 2024
本文介绍了用标准正则表达式验证和查询 LLMs 的 ReLM 系统,其结果表明 ReLM 的最高系统效率是现有方法的 15 倍,数据效率是现有方法的 2.5 倍,并且具有竞争力和较高的统计学和提示调整覆盖率。
Nov, 2022
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。
May, 2023
本文研究了在化学领域中使用自然语言描述来增强预测模型。使用文献手动提取的大量结构化数据来训练化学信息模型是传统的方法。本文引入了一种新的方法 TextReact,该方法直接利用从文献中检索到的文本增强预测化学。TextReact 检索与给定化学反应相关的文本描述,然后将其与反应的分子表示进行对齐。通过在预测器训练中加入辅助的掩码语言模型目标,增强了这种对齐。我们通过两个化学任务进行了实证验证:反应条件推荐和一步逆合成。通过利用文本检索,TextReact 显著优于仅基于分子数据训练的最先进的化学信息模型。
Dec, 2023
预训练语言模型和信息传递神经网络在处理分子文本和分子科学领域展示了显著的能力。本文提出了两种策略来评估信息整合是否能增强性能:对比学习和融合,经实证分析表明,当应用于较小的分子图时,整合方法相比基准模型表现出优越性能,而当应用于大规模图时,这些整合方法并未带来性能改进。
May, 2024
通过整合大型语言模型与推荐系统的表示学习,我们提出了一个模型不可知的框架 RLMRec,旨在增强现有的推荐器,并提高其对于用户行为和偏好的语义理解,同时通过交叉视角对齐框架,将 LLM 的语义空间与协同关系信号的表示空间相对应。
Oct, 2023