致力于句法伊比利亚极性分类
本文使用双仿射语义依赖分析器、大型预训练语言模型和公开可用的翻译模型解决了结构化情感分析的问题。对于单语言环境,作者考虑了在单个语料库上训练和跨语言模型上下文下训练。对于零样本场景,作者通过单词级别的翻译和合并训练数据来处理目标语料库。在后期评估阶段,作者还训练了交叉语言模型,而不是使用单词级别的翻译,并获得了更好的结果。
Apr, 2022
本文提出了一种简单而有效的方法,可以在没有大量翻译数据的情况下进行跨语言的句法转移,这种方法基于三个步骤:1)推导跨语言单词簇的方法,可用于多语言解析器;2)将目标语言的词汇信息转移到源语言树库;3)将这些步骤与 Rasooli 和 Collins(2015)的密度驱动注释投影方法相结合。该方法在多个语言中实现了针对先前工作的最新进展,在只使用比利时圣经作为翻译数据的情况下,与以前的工作相比,Europarl 语料库的结果表现出额外的提升。最后,作者在通用依赖语料库的 38 个数据集上进行了结果展示。
Oct, 2016
本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
本文探讨 Transformer 模型在捕捉加利西亚语中的主谓和名词形容词一致性依赖方面的能力,并通过一系列词语预测实验来评估加利西亚语的现有单语和多语模型的性能,并对不同训练点上两个单语 BERT 模型的不同成就程度进行比较,得出了所需的训练步骤的有趣见解。
Jun, 2022
本文介绍了用于扩展语言资源的分类方法,比较了 WALS 的六个句法规则在 325 种语言中的分类效果。我们发现在使用 propagating 大多数标签的方法中,结合形态学和语言特征的逻辑回归模型的分类效果最好。
Mar, 2016
本文介绍了在半监督下对自然语言句子进行解析的工作,重点是去除词汇的依赖关系解析器的多源跨语言转移。首先,评估了树库注释风格对解析性能的影响,重点是介词附着风格。然后,我们提出了 KLcpos3,一种经验性的语言相似度测量方法,专门用于多源去词汇解析器转移中源解析器加权。最后,基于训练解析器模型的插值,引入了一种新的资源组合方法。
Jun, 2015
这篇论文研究了在情感分析过程中使用序列标注句法解析器注入句法信息以提高速度和准确性的方法,通过对三元极性分类任务进行训练和评估,展示了该方法相较于传统的句法解析器和基于浅层句法规则的启发式方法在极性预测任务中更快且更准确的表现,特别适用于在研究和工业领域中进行情感分析的实践者。此外,还比较了在极性预测任务中使用几种情感词典在序列标注句法解析器上的表现,结果显示对于捕捉极性判断变化的词典比忽略极性判断变化的词典效果更好,而且与基于 Transformer 模型的五类别分类任务相比,序列标注句法解析器在极性预测任务中表现更快。
Jun, 2024
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019