预训练点云模型的实例感知动态提示调节
该论文提出了一种名为Visual Prompt Tuning(VPT)的高效且有效的调整大规模Transformer模型的替代方案,相较于 fine-tuning,VPT仅在输入空间中引入很少的可训练参数,通过在广泛的下游识别任务上的实验,我们发现VPT在许多情况下甚至比全尺寸fine-tuning更加优秀,同时减小了每个任务的存储成本。
Mar, 2022
本文提出了神经架构搜索算法Neural prOmpt seArcH(NOAH),利用prompt模块来学习大型视觉模型下游数据集的最优设计,通过在超过20种视觉数据集上的广泛实验,我们证明NOAH优于单个提示模块,具有良好的少样本学习能力并具有域通用性。
Jun, 2022
该论文提出了基于prompt调节(Prompt tuning,Pro-tuning)的方法来替代fine-tuning,适应于各种冻结视觉模型到不同的下游视觉任务。实验结果表明,这种方法在图像分类和密集预测任务方面表现优于fine-tuning。
Jul, 2022
本文探讨如何使用预训练的 2D 知识,通过 Point-to-Pixel Prompting 对预训练的图像模型进行微小调整,以适应于点云分析任务。经过广泛实验,该方法取得了很好的成绩,并在 ScanObjectNN 的最难设置上达到了 89.3% 的准确度。
Aug, 2022
本研究提出了一种名为“Approximated Prompt Tuning”的方法,用以提高视觉语言预训练模型的迁移学习效率,其基于软提示令牌的独立信息扩散步骤,从而有效地避免了昂贵的全局关注建模,并显著降低了计算复杂度。
Jun, 2023
通过Point-PEFT框架,我们能够在只使用可训练参数的5%的情况下,实现优于完全微调的性能,充分展示了我们方法的高效性和有效性。
Oct, 2023
通过对19个不同数据集和任务的全面分析,我们发现Visual Prompt Tuning(VPT)在任务目标差异大或数据分布相似时表现优异,而其成功不仅仅归因于过拟合和优化,而是因为VPT保留了原始特征并添加了参数。
Jan, 2024
通过关键参数的优化和初始化,我们提出了一种改进的视觉提示调整方法,用于优化预训练模型在下游任务中的性能表现,并在大量实验证明该方法在自我监督预训练适应性上取得了显著的性能改进。
Feb, 2024
该研究提出了一种参数高效的提示调优方法(称为PPT),用于适应大型多模态模型的3D点云理解。通过PromptLearner模块和PointAdapter模块,在提高参数效率的同时增强了对3D点云理解的提示调优能力,实验证明了该方法在参数和数据效率方面的优越性。
Feb, 2024
本文的目标是研究点云分析中的参数高效迁移学习,以在任务性能和参数效率之间取得理想的平衡,通过冻结默认预训练模型的参数,并使用动态适配器和提示调整相结合的方法,捕捉每个标记的重要程度,要点功能以及实例特定特征的交互。通过在五个具有挑战性的数据集上进行的实验表明,所提出的方法在明显减少可训练参数和训练GPU存储空间(分别减少95%和35%) 的同时,实现了优于完全微调对应方法的性能。
Mar, 2024