LMN 在 SemEval-2022 任务 11 中:基于 Transformer 的英文命名实体识别系统
本文研究了英文语言的复杂 NER 任务,使用预训练语言模型如 BERT 取得竞争性成绩,并 qualitatively 分析了多种架构在此任务上的表现,最佳模型相比 baseline F1-score 提升了超过 9%。
Apr, 2022
使用多语言 Transformer XLM-RoBERTa 的上下文化表示来处理多语言和混合编码查询的复杂 NER 任务,通过 CRF 的标记分类层和拾取来捕获命名实体范围和使用自我培训机制从大型未标记数据集生成弱标注数据。在 Multilingual Complex Named Entity Recognition 的共享任务中,我们的提出的系统在多语言和混合编码 MultiCoNER 的追踪中分别排名第 6 和第 8。
Apr, 2022
本文介绍了 Sabancı大学自然语言处理小组在 SemEval-2022 MultiCoNER 任务中提出的系统。我们开发了一种无监督的实体链接流水线,利用维基百科检测潜在的实体提及,并使用相应的维基百科上下文来帮助分类器找到该提及的命名实体类型。我们的结果表明,我们的流水线显著提高了性能,特别是在低上下文环境下的复杂实体。
Mar, 2022
本文介绍了我们在 SemEval 2022 Task 11:MultiCoNER Multilingual Complex Named Entity Recognition 中取得的成果,即:在多语言 NER 任务中,提供了一个统一的框架;在低资源代码混合 NER 任务中,采用了几种简单的数据增强方法;在中文任务中,提出了一种可以捕捉中文词汇语义、词汇边界和词汇图结构信息的模型。最后,我们的系统在子任务 11、12 和 9 的测试阶段分别获得了 77.66、84.35 和 74.00 的宏 F1 得分。
Apr, 2022
本文描述我们在 SemEval 2022 任务 11 中使用 Transformer 层自适应地整合多个预训练语言模型进行实体识别,在波斯语和荷兰语方面表现优异。
May, 2022
通过在所有提供的 12 种语言数据集上微调 XLM-Roberta 基础模型,利用跨语言表示方法解决 NER 多语言复杂命名实体识别任务,达到 SemEval 2023 任务 2 的最佳表现。
May, 2023
本文介绍了我们在 SemEval 2022 Task 11 中研究的复杂命名实体识别问题的研究,使用了多种基于 ELECTRA 的模型以实现优秀的性能,同时讨论了一些技术方面的决策和实验结果。
Apr, 2022
使用预训练的语言模型和整词遮罩技术,结合 CRF、BiLSTMs、线性分类器等多种神经网络架构, 在中文和西班牙语两种低资源语言的命名实体识别任务上超越基准,并在任务中表现最佳模型占据竞争性位置。
Jul, 2022
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022
该研究介绍了 SemEval-2023 Task 2 的发现,该任务主要聚焦于跨越 12 种语言的复杂名词实体的识别方法(如 WRITTENWORK,VEHICLE,MUSICALGRP),并研究了如何在单语和多语境以及噪声情况下实现。MultiCoNER 2 是 SemEval-2023 中最受欢迎的任务之一,从 47 个团队的 842 篇提交的论文中脱颖而出,并发现了媒体标题和产品名称是最具挑战性的实体类型,提出了将外部知识融入 transformer 模型中来实现最佳表现的方法,并注意到嘈杂的数据对模型性能有重要影响,对嘈杂数据中包含的复杂实体的 NER 鲁棒性的未来研究需要受到关注。
May, 2023