EMNLPOct, 2022

HashFormers:面向独立于词汇表的预训练 Transformer

TL;DR本论文提出了一种新的基于 Hash 技术的预训练模型 HashFormers,该模型可以在不使用 embedding matrices 的情况下支持无限词汇量,具有内存效率更高的优点,并在多个文本分类任务中达到了可比较的预测性能。