- ACL大语言模型时代的跨语言情感分析模型竞技场:一项比较研究
在跨语言情感分析领域,公共的小型多语言语言模型在零样本跨语言性能上优于大型通用语言模型,但在少样本跨语言设置中,公共的大型通用语言模型展现出更高的适应潜力。
- TinyStyler: 高效的少样本文字风格转换与作者嵌入
TinyStyler 是一种轻量但高效的文本风格转换方法,利用小语言模型和预训练的作者嵌入来进行有效的少样本文本风格转换,表现优于 GPT-4,并在自动和人工评估中超过最近的可控文本生成方法。
- 基于类别无关配准学习的少样本异常检测
利用一种新颖的少样本异常检测(Few-Shot Anomaly Detection,FSAD)框架,该框架基于注册作为自监督类别无关表示学习的代理任务,并通过将测试图像的注册特征与其对应支持图像特征进行比较来识别异常,使模型能够泛化到新的测 - llmNER:利用大型语言模型的(零 | 少)样本命名实体识别
llmNER 是一个用于实现 LLMs 的零射击和少射击 NER 的 Python 库,通过提供易于使用的接口,llmNER 可以组合提示、查询模型,并解析 LLM 返回的完成结果。该库还通过提供简单的接口来测试多个变量,让用户可以高效地执 - ChatGPT 是一种很好的即插即用的少样本人体动作预测模型
利用 ChatGPT 这种离线语言模型和 FMP-OC 框架,我们提出了一种新的少样本运动预测方法,通过提取 ChatGPT 中的隐式知识和采用上下文学习机制,直接进行非语言任务的运动预测,实验证明了我们提出的框架的有效性。
- 多模态基础模型中的多示例上下文学习
多模态基础模型在少样本上下文学习中具有较高的效果,通过扩展到多样本上下文学习,可以显著提高模型性能和数据效率。
- AAAI解放已见类别:通过锚点生成和分类重构提升少样本和零样本文本分类
我们提出了一个简单而有效的策略,通过利用大型预训练语言模型生成伪新样本并选择最具代表性的样本作为类别锚点,将多类分类任务转换为二元分类任务,并使用查询 - 锚点对的相似性进行预测,从而在少样本和零样本任务中充分利用有限的监督信号,实现模型从 - USAT: 通用说话者自适应文本转语音方法
现有的文本转语音(TTS)研究主要致力于提高训练数据集中演讲者合成语音的质量。为迎接有限参考数据的见外 / 未训练演讲者进一步合成真实语音的挑战,我们提出了一个整合了零样本和少样本演讲者适应策略的框架。
- 通过语句调整在编码模型上实现自然零样本提示
使用 Statement-Tuning 技术,通过对有限的陈述进行建模,训练一个编码器模型来确定标签,实现跨任务泛化,并展示相比于最先进的大型语言模型状态,Statement Tuning 具有竞争性能且参数更少,研究还探索了几个设计选择对 - COLING探究少样本 跨领域立场检测模型决策的稳健性:一项预注册研究
针对多样观点的新闻推荐系统,识别两个新闻文章是否表达相同观点是至关重要的。本文探讨少样本立场检测的操作化选择的稳健性,特别关注不同主题下的立场建模。实验测试了预注册的关于立场检测的假设,比较了两种立场任务定义(正 / 反对与同一立场),两种 - 探索卫星图像中的少样本目标检测的鲁棒特征
本文旨在使用仅有少量示例来进行卫星图像中的目标检测,从而使用户能够使用最少的注释来指定任何目标类。我们探讨了来自开放词汇检测和遥感领域的最新方法和思路。我们基于传统的两阶段架构开发了一个少样本目标检测器,其中分类块被基于原型的分类器替代。我 - 三种语言下的少样本临床实体识别:掩码语言模型优于 LLM 提示
对于临床实体识别任务,大型语言模型的少样本能力在低资源环境下取得高性能,但在临床领域,轻量级的监督标注模型结合掩蔽语言模型的表现更好,并且二者的 CO2 排放量相对较低。
- 增强大型语言模型所需的法术书
我们提出了一种称为 SLEICL(Strong LLM Enhanced ICL)的方法,通过从强语言模型学习例子并将其总结和转移给弱语言模型来确保 ICL 的稳定性和有效性,从而使弱语言模型在零样本或少样本情况下在多个数据集上取得了持续的 - 在 Bongard-HOI 中从增强标签不确定查询中进行少样本学习
在这篇论文中,研究人员提出了一种新的方法来解决在少样本情况下检测人 - 物交互的问题,通过引入标签不确定的查询增强技术,以及伪标签生成技术和负样本支持集增强信息的方式,实现了在 Bongard-HOI 基准和 HICO-FS 数据集上的性能 - AAAIDeepCalliFont:融合双模态生成模型的少样本中文书法字体合成
通过集成双模式生成模型,使用图像生成和序列生成分支,并采用特征重组模块和光栅化损失函数,提出了一种新的模型 DeepCalliFont,用于少样本中文书法字体合成任务。与其他先进方法相比,我们的方法在少样本中文书法字体合成任务中具有更高的综 - 基于对抗损失的少样本异常检测与鲁棒特征表示
我们提出了一种少样本异常检测方法,通过整合对抗训练损失来获得更强大和广义的特征表示,实验证明该方法在利用对抗性损失时通常获得更好的性能。
- 点、线段和计数:一种用于对象计数的普遍框架
基于检测的 PseCo 框架将 SAM 和 CLIP 结合起来,实现了对少样本和零样本的准确目标计数,通过点定位、分割和计数等步骤解决了效率和小物体区分等难题。
- 胸部 X 射线图像的弱监督异常检测
针对少样本异常图像的弱监督胸部 X 光检测方法(WSCXR)的研究。WSCXR 通过利用异常特征挖掘消除正常区域特征并采用线性混合策略增强异常特征,从而充分利用疾病区域的关键特征,实现了对异常图像的有效检测。
- 面向少样本动作识别的语义感知视频表示
我们提出了一种简单而有效的语义感知少样本动作识别模型(SAFSAR),该模型通过直接利用 3D 特征提取器与有效的特征融合方案以及简单的余弦相似度分类,实现了更好的性能,无需复杂的距离函数和额外的时间建模组件。在这种方案中,SAFSAR 以 - ExPT: 用于少样本实验设计的合成预训练
在少样本条件下进行实验设计,ExPT 模型是一个用于少样本实验设计的基础模型,采用了合成预训练和上下文学习的新型组合,通过以目标任务的少量标记数据点为条件生成候选最优结果,从而适应任何设计任务并展现出优越的普适性和性能。