无需训练的通用依存关系分析
该论文介绍了 ADAPT 系统参加 2020 年 IWPT 共享任务的解析增强通用依存关系的方法,采用 UDPipe 和 UDPipe-future 构建管道方法,使用语义依存图解析器或一系列启发式规则来增强依存图,并在语言平均值方面达到了 79.53 分,可以成功实现增强依赖句法分析任务。
Sep, 2020
介绍一种用于自然语言处理的跨识别模型,能够将自然语言转化为通用分解语义表现形式(UDS)的图结构,并将其注释为分解语义属性分数,同时实现了属性预测。通过分析属性预测错误,发现模型捕捉到属性组之间的自然关系。
Oct, 2019
本文介绍了用 Universal Dependencies 分析 Tweets 的问题,提出了扩展 UD 指南来覆盖 Tweets 中的特殊结构以及使用新的 Tweet Treebank v2 来解决标注中的歧义,并构建了一个可以将原始 Tweets 解析为 UD 的流水线系统。此外,作者还提出了一种新的方法来精简基于转换的解析器的集合,并在真实情况下验证了该方法的有效性。
Apr, 2018
该研究提出了一种基于文本参数生成和适配器模块的新型多语言任务适应方法,该方法通过语言嵌入来学习适配器,同时在各种语言之间共享模型参数,可有效地集成现有的语言类型学特征到分析网络中,并在高资源和低资源语言中均显着优于强的单语言和多语言基线,这表明了所提出的适应方法的成功。
Apr, 2020
UDify 是一个多语言多任务模型,可以准确预测 75 种语言中 124 个通用依赖树库的通用词性、形态特征、词形和依赖树,无需任何循环或语言特定组件,并且在跨语言注释方面对低资源语言起到关键作用,并且可以进行零 - shot 学习。
Apr, 2019
该研究介绍了 Universal Dependencies 的第二个版本,其中包括词汇分析、词形还原、标准化标记和句法关系,适用于 90 种语言,以及主要变化(UD v1 到 UD v2)的讨论。
Apr, 2020
本研究提出了基于单词形态的韩语句法分析方案,并将其应用于通用依存结构。我们开发了自动转换脚本,证明了该方案与韩语单词嵌入的高效性,并通过统计和神经模型证明了该方案的有效性。
Sep, 2022
用单个深度神经网络实现的依赖关系解析器,无需词性标注即可直接生成依存关系及其标签,经过多任务学习和适当的正则化和额外监督训练,在没有语言特征的情况下,在斯拉夫语 UD 树库中表现为最高准确性。
Sep, 2016
本文综合探讨了通用分解语义(UDS)解析,并引入了级联模型,将复杂的解析任务分解为语义上适当的子任务。我们的方法在优化了架构的同时,超越了先前的模型,并显著减少了推理时间。我们还结合了句法信息,进一步优化了架构。此外,我们还探索了不同的数据增强方法,进一步改进了 UDS 解析。最后,我们进行实验来研究 ChatGPT 在处理 UDS 任务方面的效果,发现它在属性解析方面表现出色,但在关系解析方面存在困难,而使用 ChatGPT 进行数据增强效果不佳。我们的代码可在此链接找到。
Jul, 2023