Mar, 2024

对付时间与内存受限 GPU 服务下的长文本分类的简单转换器技巧

TL;DR使用 18k 新闻文章,我们研究了基于 Tokenizer 输出长度推荐使用的预训练模型,并对缩短和丰富序列的一些技巧进行了比较。我们找到在使用较少的计算资源的情况下,去除停用词同时保留标点和低频词是最佳的技巧,并能够在保持相同信息的同时获得优越性能。这些研究结果可帮助开发者在有限的资源下高效地优化模型性能。