语法有助于 ELMo 理解语义:在深层神经结构中,语法仍然相关吗?
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高 SRL 的性能,并且在 CoNLL-2005 数据集上达到了新的最先进水平。
Jul, 2019
我们研究了浅层句法意识表示对 NLP 任务的作用,提出了两种方法,一是增强 ELMo 架构,使得上下文嵌入利用浅句法上下文,二是在下游任务数据上自动获得的浅句法特征。然而,两种方法相对于仅使用 ELMo 作为基准的情况并未显著提升性能。这些发现表明 ELMo 风格的预训练发现了使浅层句法意识多余的表示。
Aug, 2019
本文探讨了在 NLP 任务中,如何最有效地使用外部句法信息来完成语义角色标注任务,通过使用三种不同的句法解析编码和注入到基于神经元素标注的 SRL 模型中的三种不同方法的评估,表明将从属关系作为输入特征可以最大限度地提高性能,并在 CoNLL05 和 CoNLL12 基准测试中实现了最新的非集成 SRL 模型的最新成果。
Jun, 2019
研究深度神经语言模型的可解释性,通过在多种语言模型中应用基于深度句法和表层句法的分析方法,考察其对语法结构的捕获程度以及不同语言间的一致性关系,并发现该语言模型普遍倾向 “Universal Dependencies” 语法形式,并且这种倾向的强度与树形状的差异有关。
Apr, 2020
本文使用深度学习框架,通过实验探究了句法信息对神经语义角色标注 (SRL) 的重要性,发现在一定条件下,神经 SRL 模型仍能从句法信息中获益;并且,本文使用现有模型进行了全面的实证研究,量化了句法对神经 SRL 模型的重要性。
Sep, 2020
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本文提出了一种基于探测任务的神经网络模型的韧性度量方法,在通过语言模型中提取出的语言结构上评估了四种大型语言模型的一致性和鲁棒性,并发现神经网络的新兴句法表示具有脆弱性。
Oct, 2022
本研究提出了一种新的基于依存句法的语义角色标注模型,该模型使用双向 LSTM 模型将超级标记与文本进行标记,然后将这些超级标记以及词和词性信息输入深度双向 LSTM 进行语义角色标注,该模型结合了先前基于完整依存句法解析进行 SRL 和最近使用无句法信息的模型的优点,并在 CoNLL 09 英语和西班牙语数据集上实现了最先进的性能。该论文表明在神经 SRL 系统中,超级标记是一种简单、强大且稳健的将句法信息纳入系统的方式。
Mar, 2019
本研究分析了不同情感分类模型在语法复杂的输入(如 A 但 B 句子)上的表现,发现使用 ELMo 嵌入取代逻辑规则可以显著提高情感分类性能,并展示了 ELMo 隐式学习逻辑规则的能力。
Aug, 2018