Jun, 2024

LLM-dCache: 使用 GPT 驱动的本地化数据缓存改善增强工具的 LLM

TL;DR本研究介绍了 LLM-dCache,它将缓存操作视为可调用的 API 函数,通过与现有的函数调用机制无缝集成,使得大型语言模型能够在管理数据访问时提高效率。在大规模平台上的测试表明,我们的方法在不同的 LLM 和提示技术上将 Copilot 的时间平均提升了 1.24 倍。