EMNLPNov, 2020

适用于命名实体识别的可解释性多数据集评估

TL;DR本文提出了一种可解释的评估方法,用于对自然语言处理任务中的命名实体识别进行分析,以帮助读者更好地理解不同模型及其相对优劣之处。通过将我们的分析工具提供给其他研究人员,我们希望能推动这一领域的进步。