Sep, 2020

E-BERT: 电商领域短语和产品知识增强语言模型

TL;DR提出了一个名为 E-BERT 的统一的预训练框架,旨在解决 BERT 在 E-commerce 相关任务中无法很好支持两种级别的领域知识的问题,该框架通过自适应混合掩蔽实现了短语级别知识的保留以及通过邻居产品重构实现了利用产品级别知识,研究表明 E-BERT 在评论问答、方面提取、方面情感分类和产品分类等四个下游任务中有着良好的表现。