本文提出了一种基于语料库翻译的新方法,通过从源标准 SRL 注释中构建高质量的目标语言训练数据集,以解决低资源语言缺乏注释数据集的挑战,并且得到了良好的效果。
Apr, 2020
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
我们探究了一种新的方法,即将来自一对语言的资源结合起来构建一种多语言语义角色标注器,在多项语言中取得了比单语言基线更好的 SRL 性能,从分析多语言模型可以看出它在低资源环境下具有优势。
May, 2018
提出一种跨语言编码器 - 解码器模型,用于在资源匮乏的目标语言中同时翻译和生成带有语义角色标注的句子。该方法可用于单语、多语言和跨语言环境,并能生成基于依存和跨度的 SRL 注释,通过使用生成的数据进行增量训练可提高资源匮乏语言的标注性能。
Aug, 2019
提出一种零 - shot 跨语言 CSRL 方法,利用层次编码和设计的预训练目标隐式地学习语言不可知、会话结构感知和语义丰富的表示,可用于英语问题重述任务和多轮对话响应生成任务,以期促进解决省略和指代问题的非中文对话任务研究。
Apr, 2022
本研究提出了一种端到端的 SRL 方法,它不仅消除了特征提取的需要,而且在实际情况下面对新样本的时候也表现出优于现有方法 16% (83.16) 的准确性改进。
Jun, 2023
本文探讨了如何通过使用多种跨语言特征和转移方法,实现端到端语义角色标注(SRL)模型的构建,并概括了实验结果,说明使用不同的跨语言特征和黄金特征可以显著提高跨语言 SRL 的性能。
Aug, 2020
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本 SRL 模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文 SRL 良好结果。
Nov, 2019
该研究论文提出了一种半监督的语义角色标注方法,该方法基于神经网络的隐层状态生成词汇特征,明确地加入并控制句法特征的不一致性,以实现更好地语义角色标注,尤其是在数据稀缺的情况下,并在 CoNLL-2012 英文部分中取得了相对于基准模型更好的结果。
Aug, 2018
本研究提出一种名为 CLAR 的新方法,通过跨语言较为相似的语义角色信息来提升语义角色标注(SRL)的效果,且实验证明 CLAR 相比单语言和多语言基线模型有更好的表现,尤其适用于低语言资源场景。
Nov, 2020