Feb, 2023
稳定熵假设和熵感知解码:鲁棒自然语言生成的分析与算法
The Stable Entropy Hypothesis and Entropy-Aware Decoding: An Analysis and Algorithm for Robust Natural Language Generation
Kushal Arora, Timothy J. O'Donnell, Doina Precup, Jason Weston, Jackie C.K.Cheung
TL;DR本论文提出,当语言生成模型用于文本完成,故事生成或对话建模等开放性文本生成问题时,最先进的语言生成模型可能会退化。我们发现近似平坦熵带内的生成更为 “人类化”,而模型违反熵的这些限制通常会导致退化。因此,我们提出了一种基于熵的解码算法,以生成更具语境感和 “人类化” 的文本。