- 少样本 CLIP 的选择性视觉 - 语言子空间投影
通过引入一种名为选择性视觉 - 语言子空间投影 (SSP) 的方法,我们可以改进 CLIP 模型中的模态差距问题,并提升图像和文本对的对齐能力,从而在零样本 / 少样本推理中获得更好的分类性能。
- MedSAGa: 基于 SAM 的梯度低秩投影的少样本医学图像分割
大规模模型在医学图像分割中的应用具有挑战,文章提出了采用低记忆体耗用效能高的渐变低秩投影 GaLore 和采用标准优化器方法的 MedSAGa,通过 Segment Anything Model(SAM)来实现少样本医学图像分割,同时通过多 - KDDMeta-GPS++: 用对比学习和自训练增强图元学习
一个解决少样本节点分类问题的新框架称为 Meta-GPS++,结合元学习、图神经网络、无标签节点信息和自训练等方法,在同构和异构图上学习判别性节点表示,通过原型方法初始化参数并采用对比学习来规范节点嵌入分布,利用无标签节点的宝贵信息,并通过 - 通过主动地从大型语言模型中提炼知识来增强数据受限的图神经网络
本文提出了一种将 Large Language Models(LLMs)和 Graph Neural Networks(GNNs)结合起来的新方法,利用 LLMs 的零样本推断和推理能力,采用基于 Graph-LLMs 的主动学习模式来增强 - 评估多模态 LLM 在少样本学习中的语言能力
对 Multimodal Large Language Models 在 VALSE 基准上的性能进行综合评估,发现 In-Context Learning 和 Chain-of-Thought prompting 能显著提升模型性能,尤其 - 跨模态增强的少样本多模态假新闻检测
该论文提出了一种多模态假新闻检测模型,通过引入跨模态增强(CMA)方法将小样本学习转化为更强鲁棒性问题,并利用简单的线性探针方法在少量训练样本下对多模态假新闻进行分类,取得了优于三个基准数据集的结果。此外,该方法在可训练参数和训练周期方面明 - 领域特定场景下的命名实体识别的少样本提示优化
FsPONER 是一种新颖的优化少样本提示的方法,通过在工业制造和维护领域中使用多种大型语言模型,特别是 GPT-4-32K、GPT-3.5-Turbo、LLaMA 2-chat 和 Vicuna,将其与微调 BERT 和 LLaMA 2- - 上下文学习中的感应头作为模式匹配的基础机制
大语言模型通过上下文学习展现了学习和执行复杂任务的卓越能力,本文研究在少样本学习和上下文学习环境中的归纳头的作用,并在抽象模式识别和自然语言处理任务上分析了两种最先进的模型,Llama-3-8B 和 InternLM2-20B。研究结果表明 - 训练免费的冷冻电子通断层扫描颗粒分割
CryoSAM 是一个无需训练的新型框架,利用现有的二维基础模型,通过基于提示的三维分割系统和分级特征匹配机制,能够高效地完成单颗粒实例分割和全断层语义分割,其中使用更少的注释,在粒子拾取方面表现出色。
- 学习调整 CLIP 的元特征以实现少样本分类的类别一致性
通过结合局部表示和高层语义表示的互补优势,我们提出了 Meta-Feature Adaption 方法 (MF-Adapter),并使用 Meta-Feature Unit(MF-Unit)来适应图片特征,从而在无标签样本下达到更好的分类性 - AWT:通过增强,加权和传输进行视觉语言模型的转移
通过增强输入的多样化视觉角度与丰富的类别描述,利用预训练视觉 - 语言模型实现图像与语言的最优传输,提高视觉 - 语言模型的零样本学习与少样本学习能力。
- 数据稀缺环境下的论证挖掘:跨语言传递和少样本技术
针对论证挖掘中涉及长而复杂语篇结构的序列标注任务,本文在实证分析中表明先前关于跨语言迁移或少样本学习的观点不适用。与先前的研究相反,我们展示了在论证挖掘中,数据传递比模型迁移获得更好的结果,并且微调优于少样本方法。对于数据传递而言,数据集领 - 检索式上下文学习用于少样本层次文本分类
本研究提出了第一个以预训练语言模型为基础的在语境学习框架来从检索数据库中识别相关演示,并采用迭代策略处理多层次层级标签的少样本分类任务,通过不同目标实现对输入文本的层级分类,得到优越的实验结果,在少样本的层次分类任务中取得了最先进的成果。
- 医疗领域零样本和少样本人工智能算法综述
通过少样本学习、零样本学习和常规目标检测方法的比较研究,发现这些方法在数据集要求、泛化性能以及处理挑战方面取得了显著结果。此外,综述了最近三年的研究,介绍了少样本学习和零样本学习方法在解决挑战中的应用,并且指出了该领域中的进一步研究方向。
- 将 GPT-4o 置于考验中:对语言、视觉、语音和多模态熟练度的全面评估
GPT-4o 综合评估了大型语言模型(LLMs)在语言、视觉、语音和多模态能力方面的性能,结果显示 GPT-4o 在语言和推理能力的多个领域表现出高准确性和高效率,尤其在需要少样本学习的任务上表现出色,并在多模态任务方面相较于先前模型取得显 - IntCoOp:可解释性感知的视觉 - 语言提示调优
通过引入属性级归纳偏差和类嵌入来提高图像 - 文本对齐分数的一种新颖的和可解释的提示调优方法。我们通过在 CLIP 上的广泛实验中评估 IntCoOp 来证明其有效性,并发现在 10 个不同领域的下游数据集上,引入属性级归纳偏差能够比现有的 - 从 CLIP 中挖掘开放语义:一种关系转换视角的少样本学习方法
通过挖掘开放语义作为锚点,并采用转换器模块进行从图像 - 锚点关系到图像 - 目标关系的关系转换,我们的方法在少样本分类设置中表现出色。
- 恶劣天气条件下激光雷达点云的标签高效语义分割
该论文提出了一种标签效率的方法,通过使用少量已标记示例来学习从非常少量标记的点云中分割恶劣天气的点,并利用半监督学习方法生成伪标签,从而显著增加训练数据量,同时还在训练过程中整合了好的天气数据,从而在良好和恶劣天气条件下均能取得高性能。在真 - MM自我监督和少样本学习在稳健生物气溶胶监测中的应用
实时生物气溶胶监测利用自监督学习和少样本学习,通过大量未标记数据和很少的样本来分类全息图像,从而优化监测工作流程并减少模型适应不同情况所需的努力。
- 元学习的神经程序偏差
通过神经程序化偏差元学习(NPBML)的提出,我们可以通过元学习的过程来赋予神经网络特定的程序化偏差,以实现对分布式学习任务的高性能表现。