Aug, 2023
BERT4CTR: 将预训练语言模型与非文本特征结合的高效框架用于 CTR 预测
BERT4CTR: An Efficient Framework to Combine Pre-trained Language Model with Non-textual Features for CTR Prediction
Dong Wang, Kavé Salamatian, Yunqing Xia, Weiwei Deng, Qi Zhiang
TL;DR提出一种新的 BERT4CTR 框架,利用 Uni-Attention 机制在处理多模态输入和 CTR 预测中通过降维的方式从非文本和文本特征之间获得交互信息,并在训练和推断中保持低时间成本,实验证明其在公共和商业数据上显著优于现有框架。