KDDJan, 2023

2022 Amazon KDD Cup:面向电子商务产品搜索的多任务预训练模型

TL;DR本文提出了一种有效的多语言模型,该模型不仅利用已经处理好的类平衡数据集,还通过多任务预训练获得更一般化的表示。作者采用了 mlm 任务、分类任务和对比学习任务,在微调阶段采用自信学习、EMA、FGM 和 R-Drop 等方法提高模型的泛化能力和鲁棒性,采用多粒度语义单元来寻找查询和产品文本元数据,以增强模型的表示能力。该方法在三个任务中排名前八。