May, 2020
使用分层 Tucker 张量分解压缩循环神经网络
Compressing Recurrent Neural Networks Using Hierarchical Tucker Tensor Decomposition
Miao Yin, Siyu Liao, Xiao-Yang Liu, Xiaodong Wang, Bo Yuan
TL;DR本研究提出使用分层 Tucker 分解压缩循环神经网络,提高了其表示能力且相比于 TT-LSTM、TR-LSTM、BT-LSTM 等现有压缩模型,在不同数据集上同时实现了压缩比和测试准确度的显著提升。