Oct, 2024

Mini-InternVL:一个灵活传输的口袋多模态模型,参数仅占5%且性能达90%

TL;DR本研究解决了多模态大语言模型(MLLM)在消费者级GPU或边缘设备上训练和部署的高计算成本问题。我们提出的Mini-InternVL系列模型在参数仅为5%的情况下实现90%的性能,通过统一适应框架使其在一系列下游任务中超越专门模型,显著提升了MLLM的应用效能。