BriefGPT.xyz
大模型
Ask
alpha
关键词
peft techniques
搜索结果 - 2
Context-PEFT: 高效多模态、多任务微调
提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过 LoRA、BitFit 和 IA3 等技术,在几乎不需要可训练参数和 GPU 内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常
→
PDF
7 months ago
Octavius: 通过 MoE 减少 MLLMs 的任务干扰
通过介绍新颖且可扩展的框架 LaRA-MoE,本研究通过大型语言模型在多模态学习方面的综合研究和实验,展示了在各种二维和三维下游任务中设计的开创性的 LoRA-MoE 解码器的有效性和多样性(提升约 20%),以及更多其他模态和任务的导入在
→
PDF
8 months ago
Prev
Next