本文提出了一种基于树库嵌入的新方法,以改进现有多种树库的依存关系分析器,实验证明这种方法相比于现有的许多策略要好,可以大大提高自然语言处理中的性能
May, 2018
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
介绍了 Uppsala 系统,它是一个由三个部分构成的流水线,可以用于 CoNLL 2018 共享任务的普遍依赖语法分析。通过使用多个树库对同一语言或密切相关语言训练模型,我们极大地减少了模型数量,最终在公开测试上获得了 LAS 和 MLAS 指标的第 7 位排名以及词分割、普遍 POS 标签和形态特征的最高分。
Sep, 2018
本文提出了一种有效且资源占用较少的策略来解析混合编码数据,利用现有的单一语言标注资源进行训练,相比专业领域的方法,这些方法可以取得显着更好的结果。同时,我们还提供了一个包含 450 个印地文和英文编码混合推文数据集及其通用依存分析标注结果,用于评估这些方法。
Mar, 2017
该研究探讨了使用代码混合的方式进行多语言句法依存关系知识传递的方法,并利用跨语言词向量在目标语言中转移句法知识的效果,结果显示代码混合的方法比传统的翻译方式更加有效。
Sep, 2019
本文针对语义解析的性能进行改进,使用多任务学习方法,将 UCCA 解析作为测试案例,辅助任务包括 AMR 解析、SDP 解析和 Universal Dependencies 解析。实验表明,多任务学习显著提高了 UCCA 解析的性能。
本文提出在多语种低资源场景下采用语言特定的预训练和词汇扩充以适应多语种模型并使用所提出方法对四种语言进行案例研究,结果显示这些方法可以显著提高性能,特别是在最低资源的情况下,并证明了模型的预训练数据与目标语言变体之间的关系的重要性。
Sep, 2020
本文介绍了一种基于深度学习的语义依存图形式分析系统,该系统采用效率高且几乎拓扑结构简单的推理方法,通过组合双向 - LSTM 和多层感知机,能够在不使用手工特征或语法的情况下显著提高语义依存分析的技术水平。作者还对多任务学习策略进行了研究,并获得了新的技术成果。
Apr, 2017
本文使用双仿射语义依赖分析器、大型预训练语言模型和公开可用的翻译模型解决了结构化情感分析的问题。对于单语言环境,作者考虑了在单个语料库上训练和跨语言模型上下文下训练。对于零样本场景,作者通过单词级别的翻译和合并训练数据来处理目标语料库。在后期评估阶段,作者还训练了交叉语言模型,而不是使用单词级别的翻译,并获得了更好的结果。
Apr, 2022
研究了树库选择对解析评估的影响,发现使用单个树库子集进行评估可能会导致不准确的结论。实验发现,树库选择具有很大的变异性,虽然确定良好的树库选择指南很困难,但可以检测出潜在的有害策略。
Sep, 2022