Dec, 2023

微调还是检索?LLMs中知识注入的比较

TL;DR比较fine-tuning和retrieval-augmented generation (RAG)两种方法,发现RAG在不同主题的知识密集型任务中始终优于fine-tuning,并且LLMs在fine-tuning中难以学习新的事实信息,通过在训练过程中暴露它们于相同事实的多个变体可以缓解这个问题。