ACLMay, 2021

个性化 Transformer 模型用于可解释的推荐系统

TL;DR我们提出了一种个性化 Transformer 模型(PETER)来解决用户和物品 ID 无法与单词在相同的语义空间中表示的问题,通过在目标解释中使用 ID 来预测单词,并赋予 ID 语言意义,从而使其实现个性化。我们的实验结果表明,我们的小型未预训练模型在生成任务上优于微调 BERT,这凸显了我们设计的重要性和实用性。