多语言语义角色标注
本研究提出了一种自动构建四种语言的 SRL 语料库的方法,并使用高质量的机器翻译和多语种 BERT 模型在这四种语言之间导入一致的谓词和角色注释,经过实验表明这种方法使得弱势语言的表现得到了提高。
Oct, 2020
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本文提出了一种基于语料库翻译的新方法,通过从源标准 SRL 注释中构建高质量的目标语言训练数据集,以解决低资源语言缺乏注释数据集的挑战,并且得到了良好的效果。
Apr, 2020
提出一种跨语言编码器 - 解码器模型,用于在资源匮乏的目标语言中同时翻译和生成带有语义角色标注的句子。该方法可用于单语、多语言和跨语言环境,并能生成基于依存和跨度的 SRL 注释,通过使用生成的数据进行增量训练可提高资源匮乏语言的标注性能。
Aug, 2019
本文研究语义分析在外语(L2)环境下的应用,以语义角色标注(SRL)为案例任务、以学习汉语为案例语言。文章手动为一组学习者文本注释语义角色并建立标准数据,使用新数据评估三种现有的 SRL 系统,探究如何成功地处理学习汉语的 SRL 任务。接着,本文将引入一种基于协议的模型来探索大规模 L2-L1 并行数据中的语义连贯性信息,以增强 SRL 的学习。实验表明,新模型可以在学习文本上实现 72.06 的 F-score,比最佳基准提高了 2.02 个百分点。
Aug, 2018
本文针对英文和中文的语义角色标注进行了实证分析,并通过联合标签的转换方案,将 SRL 注释打包至依存树表示中,并证明该表示法有望进一步将句法方法结合到语义角色标注中。
Oct, 2020
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本 SRL 模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文 SRL 良好结果。
Nov, 2019
本文探讨了如何通过使用多种跨语言特征和转移方法,实现端到端语义角色标注(SRL)模型的构建,并概括了实验结果,说明使用不同的跨语言特征和黄金特征可以显著提高跨语言 SRL 的性能。
Aug, 2020
本研究提出一种名为 CLAR 的新方法,通过跨语言较为相似的语义角色信息来提升语义角色标注(SRL)的效果,且实验证明 CLAR 相比单语言和多语言基线模型有更好的表现,尤其适用于低语言资源场景。
Nov, 2020
本研究提出了一种新的基于依存句法的语义角色标注模型,该模型使用双向 LSTM 模型将超级标记与文本进行标记,然后将这些超级标记以及词和词性信息输入深度双向 LSTM 进行语义角色标注,该模型结合了先前基于完整依存句法解析进行 SRL 和最近使用无句法信息的模型的优点,并在 CoNLL 09 英语和西班牙语数据集上实现了最先进的性能。该论文表明在神经 SRL 系统中,超级标记是一种简单、强大且稳健的将句法信息纳入系统的方式。
Mar, 2019