Nov, 2023

大型语言模型自吃训练循环的问题分析

TL;DR大型语言模型的自消耗训练循环通过使用自身生成的内容训练新一代语言模型,初始会提高生成内容的质量和多样性,但经过几代之后,多样性不可避免地会逐渐下降。