Oct, 2021

极度多标签文本分类的快速多分辨率 Transformer 微调

TL;DR该论文提出了一种名为 XR-Transformer 的新递归方法,以加速 transformer 模型在大标签空间上的微调过程,并在 3 百万标签的公共 Amazon-3M 数据集上取得了较快的训练速度,同时也提高了 Precision@1 从 51%提高到 54%,成为当今其他基于 transformer 的 XMC 模型的更好的最新结果之一。