在形态丰富的语种中,通过一种新的 “翻转管道” 方法,直接在整个单词单元上进行专家分类器的决策,再综合其预测,从而在希伯来语词性标注和依存句法分析上取得了新的技术水平,并在其他希伯来语自然语言处理任务上接近最新技术水平。
Mar, 2024
该研究回顾了过去十年在 SPMRL 框架下解析富形态语言的建模、词汇和架构方面所遇到的挑战,并提出将 SPMRL 的符号思想引入现代神经结构设计的思路,从而推动 NMRL(神经模型富形态语言)研究进入新的领域,同时展示了在希伯来语的多标记任务中设计神经模型的初步支持。
May, 2020
本研究针对资源匮乏的语言环境下,针对高度分析形态的自然语言(MRLs)的依赖句法分析任务,提出了预训练的简单辅助任务方法,实验结果表明,提出的方法使得在 10 种低资源语言环境下实验得到了稳定的提高
Feb, 2021
本文提出了一种新的神经联合模型,该模型能够同时处理文本分割和依存句法分析任务,用于将房地产广告转换成构建房产树的结构化描述。作者进行了广泛的实验研究,表明该模型相较于现有技术有更好的表现。
Sep, 2017
该研究提出了一个基于神经编码器 - 解码器的转移句法分析器,可以作为关于最小递归语义的完全覆盖的语义图分析器,预测图与非词汇化谓词及其标记对齐共同。该分析器比注意力模型基准更准确,并且在 GPU 批处理方面比高精度基于语法的分析器快一个数量级。此外,我们的最小递归语义分析器的 86.69% Smatch 得分高于 AMR 分析的上限,这使得 MRS 成为有吸引力的语义表示选择。
Apr, 2017
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
本研究提出一种多任务学习模型,可以同时训练多种语言学层次的任务,并通过一种逐步增加深度的策略来解决越来越复杂的任务。该模型使用一个简单的正则化项来实现在提高某一任务的损失函数时,不影响其他任务的学习效果。实验结果表明,这个端到端的模型在标签、句法分析、相关性与蕴含等五种任务上取得了最先进或有竞争力的结果。
Nov, 2016
本研究提出了一种基于神经网络潜在能力的因子条件随机场模型,可用于语言之间的跨领域形态标注技术,在低资源语言中展现出卓越的标注准确性。
May, 2018
本篇论文中介绍了一种用于词语语义角色标注的简单而准确的神经模型,该模型通过双向 LSTM 编码器的状态预测谓词论元依赖关系,即使没有任何语法信息,仅使用本地推理即可在英语上取得有竞争力的性能,然而,当自动生成词性标注作为输入时,它的性能明显优于所有先前的本地模型,并接近报告的英语 CoNLL-2009 数据集的最佳结果。我们还考虑了中文、捷克语和西班牙语,其中我们的方法也取得了有竞争力的结果。基于语法的解析器在领域外数据上不可靠,因此当在该设置中进行测试时,标准(即语法相关)的 SRL 模型受到了阻碍。我们的基于语法不可知的模型表现更健壮,这在标准的领域外测试集上得到了最佳的报告结果。
Jan, 2017
本研究提出了一种新的基于依存的混合树模型,将自然语言转换成机器可解释的含义表示,并通过在标准多语言 GeoQuery 数据集上进行的大量实验证明,我们的方法能够在多种语言上实现最先进的性能。
Sep, 2018