EMNLPOct, 2022
HashFormers:面向独立于词汇表的预训练 Transformer
HashFormers: Towards Vocabulary-independent Pre-trained Transformers
Huiyin Xue, Nikolaos Aletras
TL;DR本论文提出了一种新的基于 Hash 技术的预训练模型 HashFormers,该模型可以在不使用 embedding matrices 的情况下支持无限词汇量,具有内存效率更高的优点,并在多个文本分类任务中达到了可比较的预测性能。