ICMLJun, 2024

基于张量分解的二阶循环神经网络视角

TL;DR通过对第二阶递归神经网络的参数化使用 CP 分解得到的模型 CPRNN 进行研究,我们分析了分解的秩和隐藏层大小如何影响模型的容量,并根据这些参数展示了循环神经网络、二阶递归神经网络、限制型二阶递归神经网络和 CPRNN 之间的关系。我们通过对 Penn Treebank 数据集进行实验证明,在固定参数预算的情况下,通过正确选择秩和隐藏层大小,CPRNN 的表现优于 RNNs、2RNNs 和 MIRNNs。