May, 2023
压缩后即提示:通过可转移提示提高LLM推理的准确性和效率平衡
Compress, Then Prompt: Improving Accuracy-Efficiency Trade-off of LLM
Inference with Transferable Prompt
TL;DR本文介绍了一种新的压缩大型语言模型(LLM)的方法:通过使用精确的提示信息作为输入来提高压缩模型的预测准确性,以平衡其准确性和效率。研究表明,压缩LLMs通过这种提示学习方法能够匹配或超过原模型的准确性,这为LLMs的推断和扩展提供了新的可能性。