Dec, 2023

No-Skim: 针对基于略读的语言模型的效率鲁棒性评估

TL;DR为了降低大型语言模型中的运算成本和能源消耗,本论文提出了一种名为 No-Skim 的通用框架,以帮助基于打桩的语言模型所有者了解和度量其加速方案的强健性,并通过搜索最小且不易察觉的字符级和标记级失真生成对抗性输入,从而增加剩余标记比率,进而增加运算成本和能源消耗。在各种 LLM 架构上对 skimming 加速的脆弱性进行了系统评估,包括 BERT 和 RoBERTa,并在 GLUE 基准测试中找到的失真在最坏情况下能够使 LLM 的运行成本平均增加超过 145%。此外,No-Skim 扩展了评估框架,以用于不同程度的知识。