Sep, 2024

少即是多:一种简单而有效的令牌减少方法以提高多模态大语言模型的效率

TL;DR本研究解决了多模态大语言模型在资源消耗上的问题,提出了一种名为TRIM的令牌减少方法,旨在提升模型效率。该方法受人类视觉问答任务中注意力模式的启发,通过选择和减少图像令牌,显著降低了计算开销,同时保持了性能的一致性。这项研究在12个数据集上进行了广泛测试,为高性能模型的可及性和可持续性做出了重要贡献。