语义结构的句法支架
本研究提出了一种基于帧语义的解析器,可以标记出 FrameNet 谓词的语义参数,通过一种强调回忆的基于 RNNs 的扩展,该基本系统在无需调用句法解析器的情况下实现了竞争性能;同时,作者还介绍了一种仅在训练时使用来自 Penn Treebank 的短语句法注释的方法,该方法旨在解决传统句法流水线的高成本问题,并实现了最先进的性能。
Jun, 2017
本篇论文提出了一种基于结构嵌入的句法树算法框架 (SEST),利用句法树结构信息编码为向量表示,以增强机器阅读理解算法的性能。实验结果表明,该模型能够准确地识别句子的句法边界,并比基线算法更准确地提取句法连贯的答案。
Mar, 2017
本研究采用多任务学习方法,通过预测单词和语法距离(即基于真实解析树的距离值)的方式,相互共享中间表示,以有效且高效地融入句法结构于神经语言模型中, 实验表明,提供基于真实解析树的训练信号,能够降低困惑度并生成更好的语法树。
May, 2020
文章提出了一种新的基于 Transformer 模型的句法感知注意力层以及预训练任务,该模型可以从句法结构中获取信息来提高预训练模型在关系分类、实体类型标注和问答等任务中的表现。实验结果表明,该模型取得了当前最好的表现效果。
Dec, 2020
通过使用基于图的方法,利用句法结构中的成分结构,包括语法树的长距离依赖和结构信息,实现了较强的代词消解技术。实验结果显示,在 OntoNotes 5.0 基准测试的英语和中文部分中,提出的模型要么超过了强基线要么实现了新的最高水平。
Feb, 2022
本研究介绍了基于结构化支撑的多任务模型来识别科技论文中引用的意图,旨在提高科学文献个体阅读和自动化分析的效率。该模型在 ACL-ARC 数据集上取得了新的最高分 13.3% 的绝对增长,同时还引入了比现有数据集大五倍多、涵盖多个学科领域的引文意向数据集 SciCite。
Apr, 2019
本文介绍了一种基于图的半监督学习方法,利用单词之间的形态、句法和语义关系,从种子集合自动构建广覆盖的词汇表。该方法不受语言约束,可用于 11 种语言,并可通过提供的自动创建词汇表提高词汇标记和依存解析的性能。
Dec, 2015
本文使用深度学习框架,通过实验探究了句法信息对神经语义角色标注 (SRL) 的重要性,发现在一定条件下,神经 SRL 模型仍能从句法信息中获益;并且,本文使用现有模型进行了全面的实证研究,量化了句法对神经 SRL 模型的重要性。
Sep, 2020
本文从语法分析的角度出发,通过探索不同的句法分析方法和语法特征对大脑语言网络的影响,以及与语义信息的关系,研究了其对大脑活动的预测能力,发现不同的语法分析方法在大脑不同区域的编码效果不同,而语法信息和语义信息的结合能够更好地预测大脑活动。
Feb, 2023
本文提出一种基于神经网络的生成模型,使用两个潜变量来表征句子的句法和语义,并通过训练多个损失函数来实现更好的语义和句法表征的分离,将其应用于句子相似性任务中,并发现该模型的语义和句法表征性能均最优且最为分离。
Apr, 2019