ICMLJun, 2022

NERDA-Con: 用于不间断学习的 NER 模型扩展 —— 集成不同任务和更新分布偏移

TL;DR该研究提出了 NERDA-Con,一种基于 Elastic Weight Consolidation 思想的 NERLLM 精调 fine-tuning pipeline。该方法可以在不重置 Large Language Models 的情况下对新数据进行处理,对于信息提取等领域的 Named Entity Recognition 有重要的应用价值。