Jul, 2022

语言模型能否制造乐趣?以中国相声为例的案例研究

TL;DR本文旨在测试自然语言生成(NLG)在幽默方面的能力,我们使用各种方法进行生成,包括从头开始训练 Seq2seq、微调中型 PLMs 和大型 PLMs(有和无微调)。我们使用一些由数字化的中国相声剧本组成的新数据集对这些方法进行了基准测试,并进行了人员评估,表明大规模预训练大大提高了相声生成的质量,但我们得出结论:幽默生成目前还处于起步阶段。