BriefGPT.xyz
Oct, 2023
关于循环神经网络语言模型的表示能力
On the Representational Capacity of Recurrent Neural Language Models
HTML
PDF
Franz Nowak, Anej Svete, Li Du, Ryan Cotterell
TL;DR
通过研究基于递归神经网络的语言模型(LMs)的计算表达能力,本文通过扩展图灵完备性结果到概率情况,展示了有理加权RLM在无界计算时间下可以模拟任何概率图灵机。相反,在实时计算限制下,这些模型可以模拟确定性的实时有理PTM。
Abstract
This work investigates the
computational expressivity
of
language models
(LMs) based on
recurrent neural networks
(RNNs). Siegelmann and S
→