本文提出了一种基于语料库翻译的新方法,通过从源标准 SRL 注释中构建高质量的目标语言训练数据集,以解决低资源语言缺乏注释数据集的挑战,并且得到了良好的效果。
Apr, 2020
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本研究提出了一种自动构建四种语言的 SRL 语料库的方法,并使用高质量的机器翻译和多语种 BERT 模型在这四种语言之间导入一致的谓词和角色注释,经过实验表明这种方法使得弱势语言的表现得到了提高。
Oct, 2020
使用基于注释投影的转移方法,开发了一种基于依赖关系的语义角色标注系统,在只有平行数据可用的语言中,不需要其他监督的语言信息。相比之前的工作,我们只使用了词和字符特征来避免使用监督的特征。我们的深度模型考虑使用基于字符的表示以及无监督的词干嵌入来减轻对监督特征的需求。我们的实验在通用命题库的 7 种语言中有 6 种优于使用监督词汇 - 句法特征的最先进方法。
Apr, 2019
提出一种零 - shot 跨语言 CSRL 方法,利用层次编码和设计的预训练目标隐式地学习语言不可知、会话结构感知和语义丰富的表示,可用于英语问题重述任务和多轮对话响应生成任务,以期促进解决省略和指代问题的非中文对话任务研究。
Apr, 2022
提出一种跨语言编码器 - 解码器模型,用于在资源匮乏的目标语言中同时翻译和生成带有语义角色标注的句子。该方法可用于单语、多语言和跨语言环境,并能生成基于依存和跨度的 SRL 注释,通过使用生成的数据进行增量训练可提高资源匮乏语言的标注性能。
Aug, 2019
本研究提出了一种端到端的 SRL 方法,它不仅消除了特征提取的需要,而且在实际情况下面对新样本的时候也表现出优于现有方法 16% (83.16) 的准确性改进。
Jun, 2023
我们探究了一种新的方法,即将来自一对语言的资源结合起来构建一种多语言语义角色标注器,在多项语言中取得了比单语言基线更好的 SRL 性能,从分析多语言模型可以看出它在低资源环境下具有优势。
May, 2018
本文提出了第一个针对端到端语义角色标注任务采用转移模型的神经网络方法,并使用高阶组合提取非局部特征,实现了最佳性能和高效解码。在 CoNLL09 和 Universal Proposition Bank 上的实验结果表明,该方法可以创造最新的性能记录。
Jan, 2021
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本 SRL 模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文 SRL 良好结果。
Nov, 2019