ACLMay, 2020

深度学习中计算语言学的势不可挡的崛起

TL;DR本文追溯了神经网络在自然语言理解任务中的应用历史,指出了自然语言的特性对神经网络架构的发展的关键贡献。文章着重强调了变量绑定及其在基于注意力模型中的实例化的重要性,并认为 Transformer 不是序列模型而是一种诱导结构模型。这一视角导致了对深度学习架构在自然语言理解方面面临的挑战的预测。