ACLApr, 2022

GRAM: 面向内容的协同过滤的快速预训练语言模型微调

TL;DR提出了 GRAM(CCF 中的 GRadient Accumulation for Multi-modality),它利用了同一批交互历史记录中单个物品经常出现多次的事实来解决通过预训练语言模型提取高质量物品编码的资源密集型问题,显著提高了基于五个数据集的任务领域(知识追踪和新闻推荐)中的训练效率(最大提升 146 倍),Single-step GRAM 和 Multi-step GRAM 分别是 GRAM 的一个单步版本和扩展版本。