反馈对齐的混合 LLMs 用于机器语言分子翻译
化学和人工智能的交叉领域是一个积极研究的领域,旨在加速科学发现;该研究聚焦于机器翻译化学语言和分子模型,并采用一种新的训练方法,通过对比优化来提高模型性能。
May, 2024
通过使用多模态基准 ChEBI-20-MM,我们评估了模型与数据模态的兼容性和知识获取,并通过模态转移概率矩阵提供了适用于任务的最合适的模态,同时引入了一种统计可解释的方法,通过局部特征过滤来发现具有上下文特定的知识映射,从而揭示了科学语言建模在分子科学中的学习机制及其推进方法的可能性。
Feb, 2024
利用大型语言模型进行同传机器翻译,在训练推理不匹配的问题上引入了简单而有效的混合策略,并且通过在完整和前缀句子的混合训练上进行监督微调,实现了显著的性能改进,证明大型语言模型可以在翻译质量和延迟方面达到与专用同传机器翻译模型相当的水平。
Sep, 2023
开发疗法是一个漫长而昂贵的过程,需要满足许多不同的标准,而能够加快这个过程的人工智能模型将是无价之宝。这篇论文介绍了 Tx-LLM,它是一个通用的大型语言模型,从 PaLM-2 中细调,能够编码关于不同治疗模式的知识,并在药物发现领域的多个阶段上同时进行预测,从而具有竞争力的性能。我们相信 Tx-LLM 是向编码生化知识的 LLMs 迈出的重要一步,未来可能成为整个药物发现开发过程中的一种端到端工具。
Jun, 2024
大型语言模型(LLM)在生物化学任务中表现出卓越的性能,特别是分子字幕翻译任务,在分子和自然语言文本之间建立联系。然而,先前的方法在将 LLM 调整到分子 - 字幕翻译任务中需要额外的领域特定预训练阶段,分子和文本空间之间的对齐性较弱,或者对 LLM 的规模有严格要求。为了解决这些挑战,我们提出了一种新的范式:上下文分子适应(ICMA),允许 LLM 通过上下文示例来学习分子 - 文本对应关系。实验证明,ICMT 可以使 LLM 在没有额外的训练语料库和复杂结构的情况下实现最先进的或相当的性能,表明 LLM 本质上是上下文中的分子学习器。
Mar, 2024
大型语言模型 (LLMs) 在增强自然语言理解方面具有变革性的力量,代表着朝着人工通用智能迈出的重要一步。科学 LLMs 是一个新兴的领域,专门针对促进科学发现进行工程化设计。本文详细调查了科学 LLMs,并围绕生物化学领域进行了深入研究,包括文本知识、小型分子、大分子蛋白质、基因组序列以及它们的组合,从模型架构、能力、数据集和评估等方面进行了分析。最后,我们批判性地审查了当前的挑战,并指出了前景广阔的研究方向以及 LLMs 的进展。通过提供对该领域技术发展的全面概述,本调查力求成为研究人员在科学 LLMs 复杂领域中的宝贵资源。
Jan, 2024
利用大型语言模型 (LLMs) 来自动调谐粒子加速器的能力,通过自然语言提示将粒子加速器的子系统调谐到最佳状态,并与贝叶斯优化 (BO) 和强化学习训练优化 (RLO) 算法进行性能比较。该研究的目标是加快自动调谐算法在粒子加速器的日常操作中的实际应用。
May, 2024
预训练语言模型和信息传递神经网络在处理分子文本和分子科学领域展示了显著的能力。本文提出了两种策略来评估信息整合是否能增强性能:对比学习和融合,经实证分析表明,当应用于较小的分子图时,整合方法相比基准模型表现出优越性能,而当应用于大规模图时,这些整合方法并未带来性能改进。
May, 2024
我们提供一个对大型语言模型在材料科学研究中的适用性的观点,认为它们处理一系列任务和学科中的模糊需求的能力使它们成为帮助研究人员的强大工具。我们定性地研究了基础的大型语言模型理论,并将其与文献中的相关性质和技术联系起来,然后提供了两个案例研究,展示了它们在大规模任务自动化和知识提取中的应用。我们认为,在当前的发展阶段,大型语言模型应该被视为能够加速和统一领域探索的不知疲倦的工具,而不是新见解的神谕。希望本文能让材料科学研究人员了解到运用这些工具的相关概念。
Mar, 2024