- 通过信息流展示相互增强效应
互相增强效应 (Mutual Reinforcement Effect) 研究了文本分类任务中词级别和文本级别分类之间的协同关系,探讨了两个分类级别的互相促进性能的机制。使用信息流分析来观察和验证了互相增强效应理论,并将其应用于提示学习,以 - 通过最优传输促进联邦学习中的全局和局部协作
通过使用最优传输,我们提出了联邦化的提示协作方法(FedOTP),该方法采用高效的合作提示学习策略,以在每个客户端上捕获多样的类别特征,从而在数据异构性方面优于现有方法。
- 基于提示驱动的动态物体中心学习用于单域泛化
提出了一种基于提示学习的动态物体中心感知网络,旨在适应图像复杂性的变化,通过物体中心门控模块和动态选择模块来增强模型的泛化能力,实验证明该方法优于现有方法。
- 基于提示的偏差校正以提升语言模型的零 / 小样本学习
我们提出了一种空输入提示方法,通过使用来自 GPT-4 的多样化的空意义输入来为预训练语言模型的内在偏差校准提供基准,从而提高了零 / 少样本学习的性能。
- 有限预算下快速学习的最佳臂识别
在大型语言模型中,显著的指导遵循能力引发了对自动学习合适提示的日益关注。本研究通过在提示学习中显式引入有限预算约束,提出了一种统一的框架 TRIPLE(用于提示学习的最佳臂识别),并通过利用聚类和函数逼近的思想对其进行了两种基于嵌入的增强。 - 对分布泛化的任意偏移提示
通过构建任意偏移的提示学习模型和基于 Transformer 的推理网络,本研究在图像 - 语言模型的训练和测试过程中考虑了数据分布的关系,提高了模型在各种分布偏移下的泛化能力。
- 视觉语言模型的开放词汇校准
通过调整温度值,根据预测文本标签与基本类之间的距离,我们提出了一种名为距离感知校准(DAC)的简单有效方法,来解决视觉语言模型中存在的置信度校准问题。在 11 个不同的下游数据集上对 7 种不同的提示学习方法进行的实验验证了 DAC 的有效 - PL-FSCIL: 利用提示的能力进行少样本类递增学习
在这篇论文中,我们提出了一种名为 Prompt Learning for FSCIL(PL-FSCIL)的新方法,它利用了信息提示和预训练视觉转换器(ViT)模型的能力来有效解决 Few-Shot Class-Incremental Lea - 寻找咒语:通过提示工程实现精确的文本到图像扩散合成
通过 prompt 学习,我们提出了一种学习扩散模型适当文本描述的框架,通过利用预训练扩散模型导出的质量指导和语义指导,我们的方法可以有效地学习提示,从而提高输入文本和生成图像之间的匹配。通过广泛的实验和分析,验证了所提方法的有效性。
- CodePrompt: 通过提示学习提升源代码相关分类的知识特征
CodePrompt 是一种新颖方法,利用 prompt 学习和注意机制从预训练模型中召回丰富的知识来提高源代码相关的分类任务的准确性。该方法避免了需要额外的神经网络层和降低计算成本,并采用注意机制来聚合多层相关知识作为最终特征,从而在准确 - AAAI使提示可调整:基于贝叶斯建模的视觉 - 语言提示学习与数据相关先验
利用贝叶斯框架中的 Prompt 学习方法,通过建模数据相关先验,减轻少样本学习中的过拟合问题,提高提示信息对未知样例的适应性,并展示相对现有方法在基准数据集上显著性能改进的统计结果。
- 大型语言模型作为英文写作自动评分工具的实证研究__以托福独立写作任务为例
ChatGPT 以小样本的实验方法,通过对英文作文的自动评估,揭示了其在自动化作文评分方面的能力和限制,尽管结果存在回归效应,但有效的 ChatGPT 提示的设计和实施需要深厚的领域专业知识和技术能力。
- 实现有效的多合一图像恢复:一种顺序和迅速学习策略
本研究探讨了多个任务的图像恢复问题,提出了解决不同目标优化和适应性的策略,即顺序学习和提示学习,在 19 个测试集上得出了这些策略能够显著提高普通 CNN 和 Transformer 模型的综合性能,为训练具有更高泛化能力的图像恢复模型提供 - AAAI基于属性的多提示学习与跨模态对齐的人员再识别
使用生成的多个人属性作为提示来辅助更准确的 ReID 检索结果的潜力,我们提出了一种名为 Multi-Prompts ReID(MP-ReID)的新框架,基于提示学习和语言模型,充分利用精细属性来辅助 ReID 任务。实验证明了该解决方案的 - MMGPL:多模态医学数据分析与图形提示学习
使用图提示学习模型进行神经系统疾病的诊断,通过学习 GPT-4 获取相关疾病概念,计算概念与图像区块的语义相似度,并减少不相关区块的权重,同时利用图卷积网络层提取图的结构信息,以提升预训练模型在神经系统疾病诊断上的性能。
- 外部知识增强的多音字消歧方法利用大规模语言模型
提出一种解决汉语多音字消歧问题的新方法,该方法基于大型语言模型和提示学习,包括三个模块:检索模块、生成模块和后处理模块。实验结果表明该方法在公共数据集 CPP 上优于现有方法,并对提示模板、训练数据规模和是否引入外部知识进行了实证研究。
- 理解预训练的视觉语言模型的多模态提示
通过对多模态提示的直接分析,我们发现多模态提示主要通过引入可学习的偏差项来改进预训练模型在相应数据集上的识别性能,从而提出了偏差调优的方法,并证明了该方法在数据集分类信息有限的情况下较多模态提示具有更好的效果。
- 基于提示的无监督领域自适应的分布对齐
在本文中,我们首先实验性地证明了无监督训练的视觉语言模型可以显著减少源域和目标域之间的分布差异,从而改善无监督域自适应的性能。然而,直接在下游无监督域自适应任务中部署这些模型的一个重要挑战是及时的工程技术,需要对源域和目标域的领域知识进行对 - 域提示学习及其四元数网络
通过使用四元数网络,利用专用领域模型中的领域特定视觉特征引导通用上下文嵌入的转换来实现从通用化到专用化领域的有效识别能力转移,同时采用层次化方法生成视觉提示特征并分析层次化语言提示特征和领域专用视觉特征之间的互模态关系,从而实现在特定领域中 - AAAI基于结构化语言知识的视觉 - 语言模型的层次化提示学习
本研究提出一种称为分层提示调整的新方法,利用大语言模型(LLMs)建立描述每个类别的图形模型,以模拟描述类别的实体和属性及其相关性,并通过引入关系引导注意模块来捕捉实体和属性之间的关联,以及通过结合整体语义建模来处理更复杂和长期的关系。实验