基于参数高效的 3D 点云理解的提示学习
本文探讨如何使用预训练的 2D 知识,通过 Point-to-Pixel Prompting 对预训练的图像模型进行微小调整,以适应于点云分析任务。经过广泛实验,该方法取得了很好的成绩,并在 ScanObjectNN 的最难设置上达到了 89.3% 的准确度。
Aug, 2022
本文的目标是研究点云分析中的参数高效迁移学习,以在任务性能和参数效率之间取得理想的平衡,通过冻结默认预训练模型的参数,并使用动态适配器和提示调整相结合的方法,捕捉每个标记的重要程度,要点功能以及实例特定特征的交互。通过在五个具有挑战性的数据集上进行的实验表明,所提出的方法在明显减少可训练参数和训练 GPU 存储空间(分别减少 95%和 35%) 的同时,实现了优于完全微调对应方法的性能。
Mar, 2024
点提示训练(PPT)是一种新颖的多数据集协同学习框架,用于在 3D 表示学习的背景下支持多个预训练范式。PPT 能够克服协同学习中的负面迁移问题,并且使用单个权重共享模型进行监督多数据集训练时,在每个数据集上都达到了最先进的性能。此外,作为一个预训练框架,PPT 在表示质量方面优于其他预训练方法,并在涵盖室内和室外 3D 场景的十多个不同下游任务中取得了非凡的最新性能。
Aug, 2023
通过 Point-PEFT 框架,我们能够在只使用可训练参数的 5% 的情况下,实现优于完全微调的性能,充分展示了我们方法的高效性和有效性。
Oct, 2023
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
通过在 transformer 模块的键和值中直接插入提示信息,我们提出了注意力提示调整(Attention Prompt Tuning,APT)方法,从而在视频行为识别中大大减少了浮点运算和延迟,并在 UCF101、HMDB51 和 SSv2 数据集上实现了显著的性能提升。
Mar, 2024
提出了一种通过语言辅助的方法来学习点云特征,使用 LMMs 文本丰富语义概念,通过基于统计的显著特征选择实现去冗余和降低特征维度,进一步分析了文本对点云的对比训练的影响,实验证实所提出的方法在三维语义分割、三维物体检测和三维场景分类任务中学习到了有意义的点云特征,并获得了最先进或可比较的性能。
Dec, 2023
本研究提出一个新的模型 Prompt-Adapter,将预训练的提示调整与高效自适应网络相结合,用于高效的视觉 - 语言模型适应过程,超过公共数据集中少量数据情况下的现有方法,在此基础上,探讨了多任务预训练初始化与 prompt tuning 相结合的思想。
Mar, 2023