预训练点云模型的实例感知动态提示调节
本文探讨如何使用预训练的 2D 知识,通过 Point-to-Pixel Prompting 对预训练的图像模型进行微小调整,以适应于点云分析任务。经过广泛实验,该方法取得了很好的成绩,并在 ScanObjectNN 的最难设置上达到了 89.3% 的准确度。
Aug, 2022
该研究提出了一种参数高效的提示调优方法(称为 PPT),用于适应大型多模态模型的 3D 点云理解。通过 PromptLearner 模块和 PointAdapter 模块,在提高参数效率的同时增强了对 3D 点云理解的提示调优能力,实验证明了该方法在参数和数据效率方面的优越性。
Feb, 2024
本文的目标是研究点云分析中的参数高效迁移学习,以在任务性能和参数效率之间取得理想的平衡,通过冻结默认预训练模型的参数,并使用动态适配器和提示调整相结合的方法,捕捉每个标记的重要程度,要点功能以及实例特定特征的交互。通过在五个具有挑战性的数据集上进行的实验表明,所提出的方法在明显减少可训练参数和训练 GPU 存储空间(分别减少 95%和 35%) 的同时,实现了优于完全微调对应方法的性能。
Mar, 2024
该论文提出了一种名为 Visual Prompt Tuning(VPT)的高效且有效的调整大规模 Transformer 模型的替代方案,相较于 fine-tuning,VPT 仅在输入空间中引入很少的可训练参数,通过在广泛的下游识别任务上的实验,我们发现 VPT 在许多情况下甚至比全尺寸 fine-tuning 更加优秀,同时减小了每个任务的存储成本。
Mar, 2022
参数有效的迁移学习 (PETL) 是一个新兴的研究领域,旨在将大规模预训练模型适应下游任务。我们提出了一个动态视觉提示调整框架 (DVPT),可以为每个图像生成动态的实例级标记,以捕捉每个图像的独特视觉特征,从而更适合下游视觉任务。通过对广泛的下游识别任务进行实验,我们发现 DVPT 方法在性能上优于其他 PETL 方法,甚至在 19 个下游任务中有 17 个超越了完全微调的性能,同时保持了高参数效率。
Sep, 2023
通过关键参数的优化和初始化,我们提出了一种改进的视觉提示调整方法,用于优化预训练模型在下游任务中的性能表现,并在大量实验证明该方法在自我监督预训练适应性上取得了显著的性能改进。
Feb, 2024
通过引入动态视觉提示调整方法,本研究提出了一种适应多样的医学图像输入变化的参数高效微调方法,命名为 DVPT,该方法从大模型中提取有益于下游任务的知识,可通过仅使用少量可训练参数从零开始训练医学图像分析模型。
Jul, 2023
本研究提出了一种基于先前训练模型的视觉快速参数调整 (PVP) 框架,可有效降低由于高计算和存储成本带来的计算和存储成本,并在低数据环境下实现优异的结果,特别是在贫瘠的视觉分类领域中。
Apr, 2023
本文提出了 Instance-wise Prompt Tuning (IPT)方法,该方法是基于 Prompt Learning 的新型范式,利用输入数据实例注入知识来生成更富有信息量和具体的上下文信息,并在多个任务和资源设置中显着优于任务为基础的 Prompt Learning 方法,达到仅有 0.5%-1.5%调整参数时的基准微调性能。
Jun, 2022
该论文提出了一种名为 DPT 的创新型视觉语言模型微调范式,它通过文本调整和任务调整重新定义视觉问题的目标函数形式来共同优化 VQA 模型的预训练和微调目标,以提高预训练 VL 模型对于下游任务的有效适应性,实验结果表明,DPT 在准确性方面显著优于微调对应物,无论是在完全监督(2.68%)还是零射击 / 少射击(超过 31%)的情况下。
May, 2022