AAAIJan, 2023
ProKD: 一种无监督的原型知识蒸馏网络,用于零资源跨语言命名实体识别
ProKD: An Unsupervised Prototypical Knowledge Distillation Network for Zero-Resource Cross-Lingual Named Entity Recognition
Ling Ge, Chunming Hu, Guanghui Ma, Hong Zhang, Jihong Liu
TL;DR该研究提出了一种无监督的原型知识蒸馏网络(ProKD)来提高模型在跨语言命名实体识别问题上的表现。该方法通过原型对齐和基于原型的自训练两种方法,让源语言和目标语言的类别特征得到对齐,同时提高模型获取跨语言通用知识和目标语言特定知识的能力。在三个基准数据集上的实验表明该方法的有效性。