Oct, 2024
MrT5:用于高效字节级语言模型的动态标记合并
MrT5: Dynamic Token Merging for Efficient Byte-level Language Models
TL;DR该研究解决了现有子词标记化模型在面对拼写错误和多语言的一致性压缩率等问题的局限性。通过引入动态标记删除机制,MrT5在编码器中能够有效缩短输入序列长度,同时保持关键上下文信息,从而提高推理效率。实验表明,MrT5在不同语言上表现出色,相较于旧有模型在性能影响较小的情况下,序列长度最小可缩减80%。