Dec, 2023

不是所有大型语言模型(LLM)都屈服于 “逆转诅咒”:BERT 和 GPT 模型推理能力的比较研究

TL;DR在这项研究中,我们探讨了大规模语言模型在逻辑推理方面的局限性,发现 ChatGPT 等自回归解码器训练模型在 'A 是 B' 的任务中往往无法学习到 'B 是 A',从而揭示了它们在逻辑演绎上的失败。我们的研究不仅对双向语言模型 BERT 进行了评估,发现其对逆转诅咒具有免疫能力,还探索了医学知识图谱构建中的复杂演绎推理能力。尽管在处理两个集合(并集 / 交集)的情况下编码器和解码器模型表现良好,但在涉及三个集合的操作(并集、交集的各种组合)时,它们遇到了困难。因此,选择 BERT 和 GPT 模型应该根据任务的具体要求和性质,充分利用它们在双向上下文理解和序列预测方面的优势。