ACLMay, 2022

通过循环引发的隐式 N 元语法

TL;DR本研究发现,循环神经网络(RNNs)内置一些可以解释的组件,这些组件类似于经典的 n-gram 特征。从训练的 RNNs 中提取这些可解释的特征,用于下游情感分析任务,发现它们可以用于建模否定和强调等有趣的语言现象,并且可以充当 RNNs 总体性能的重要组成部分。此研究有望提高 RNNs 的可解释性,并为提出新的序列数据架构提供启发。