Mar, 2024
对付时间与内存受限 GPU 服务下的长文本分类的简单转换器技巧
Simple Hack for Transformers against Heavy Long-Text Classification on a Time- and Memory-Limited GPU Service
Mirza Alim Mutasodirin, Radityo Eko Prasojo, Achmad F. Abka, Hanif Rasyidi
TL;DR使用 18k 新闻文章,我们研究了基于 Tokenizer 输出长度推荐使用的预训练模型,并对缩短和丰富序列的一些技巧进行了比较。我们找到在使用较少的计算资源的情况下,去除停用词同时保留标点和低频词是最佳的技巧,并能够在保持相同信息的同时获得优越性能。这些研究结果可帮助开发者在有限的资源下高效地优化模型性能。