Nov, 2022

利用深度多元专家方法检测 TempoWiC 中的词义漂移

TL;DR本文主要描述了 DMA 提交至 TempoWiC 任务的情况,其中取得了 77.05%的宏 F1 得分,获得了该任务的第一名。我们首先探讨了不同预训练语言模型的影响。然后,我们采用数据清洗,数据增强和对抗训练策略来增强模型的泛化能力和鲁棒性。为了进一步提高性能,我们使用混合专家 (MoE) 方法集成 POS 信息和词义表示。实验结果表明,MoE 可以克服特征过度使用的问题,并很好地组合上下文,POS 和词义特征。此外,我们还使用了模型集成方法进行最终预测,这已被许多研究工作证明是有效的。