Mar, 2024

大型语言模型作为上下文化学物质学习器

TL;DR大型语言模型(LLM)在生物化学任务中表现出卓越的性能,特别是分子字幕翻译任务,在分子和自然语言文本之间建立联系。然而,先前的方法在将 LLM 调整到分子 - 字幕翻译任务中需要额外的领域特定预训练阶段,分子和文本空间之间的对齐性较弱,或者对 LLM 的规模有严格要求。为了解决这些挑战,我们提出了一种新的范式:上下文分子适应(ICMA),允许 LLM 通过上下文示例来学习分子 - 文本对应关系。实验证明,ICMT 可以使 LLM 在没有额外的训练语料库和复杂结构的情况下实现最先进的或相当的性能,表明 LLM 本质上是上下文中的分子学习器。