点在上下文中的理解:通过上下文学习理解点云
介绍了一种特别用于 3D 点云中上下文学习的新框架 Point-In-Context,利用联合采样模块和有效提示选择策略达到了优于单独训练模型的性能。
Jun, 2023
通过在普通文本语料库中使用简单语言建模目标来预训练模型,PICL 能够增强语言模型的上下文学习能力,从而提高其在文本分类和 NLP 任务等方面的性能,其优于大量基线模型,并具有更高的任务泛化能力。
May, 2023
通过增加上下文和记忆状态的规模,以提高在上下文中学习和推广能力,与普通的上下文学习相比,泛化性上下文学习(GPICL)在广泛的任务范围内扩展学习视野,并从较低的零样本基线开始。
May, 2024
本文基于 Contrastive Vision-Language Pre-training (CLIP) 提出了一种对应 PointCloud 数据和 3D 文本分类的零样本和小样本学习模型 PointCLIP,并通过在 ModelNet10、ModelNet40 和 ScanObjectNN 数据集上的实验证明其有效性。
Dec, 2021
通过在三维点云中应用稀疏的标注以降低标注成本,本文提出了一种弱监督点云语义分割的上下文建模方法,包括区域遮罩策略和上下文遮罩训练方法,并在 ScanNet V2 和 S3DIS 基准测试中展示了其优越性。
Jul, 2023
本文提出了一种新的提示框架 P-ICL,通过利用一些点实体作为辅助信息实现更精确的大型语言模型(LLMs)实体分类,并提出了基于 K-Means 聚类的点实体选择方法。在一些代表性的命名实体识别基准测试中,我们的实验证实了 P-ICL 和点实体选择策略的有效性。
May, 2024
本文提出了一种名为 InstanceRefer 的模型,该模型利用语言描述实现目标类别预测,从 3D 点云的广义实例分割中筛选出少量实例候选项,利用多级语境推理和多层次特征匹配来实现最相关候选项的选择和定位,从而实现了优越的 3D 视觉定位结果
Mar, 2021
通过将最近提出的硬度度量点点式 V - 可用信息(PVI)适应为上下文版本(上下文 PVI),我们评估了上下文 PVI 的可靠性,发现它与原始 PVI 具有类似的特征。此外,我们展示了如何利用上下文 PVI 来识别具有挑战性的实例,突显了上下文 PVI 的潜力并提供了对应于上下文学习能力的新见解。
Oct, 2023
提出了一种名为 DensePoint 的点云处理方法,通过推广卷积算子实现了针对不规则点配置的正则化网格卷积神经网络,并从密集连接模式中汲取灵感,在深层次结构中重复聚合多层次、多尺度语义信息,从而有机地获得具有密集上下文信息的多元语义,同时进行高效归纳学习,实验结果表明 DensePoint 方法优于现有方法,达到了业界最佳性能。
Sep, 2019