ACLMar, 2022

语言生成中概率 - 质量悖论

TL;DR论文分析了自然语言生成过程,并通过信息理论解释了高概率和高质量并不总是一致的现象,得出语言生成应包含接近自然字符串分布熵的负对数概率数目,初步实证结果表明高质量的文本具有信息量与自然字符串分布熵更接近的特点。