ACLJun, 2019

基于四元数网络的轻量级高效神经自然语言处理

TL;DR本文针对自然语言处理(NLP)任务,提出了一系列轻量级和内存高效的神经网络模型,利用四元数代数和超复数空间进行计算,在不影响性能的情况下减少了模型参数的大小达到 75%。作者提出了四元数变体模型和新的架构,如四元数注意力模型和四元数变换器模型,并在多项 NLP 任务上进行了广泛的实验,证明了所提出的模型的优越性。