- ACL大型语言模型时代的语义表示分析
在大语言模型 (LLMs) 时代,本文调查了语义表征在 LLMs 时代中的作用,并探讨了 Abstract Meaning Representation (AMR) 对五个不同自然语言处理任务的影响。通过提出了一种名为 AMRCoT 的 A - 多模态基础模型的小样本自适应:综述
多模态模型的少样本适应方法在医学成像等领域仍有待提高,研究者提出了基于提示、适配器和外部知识的三种技术方法,本论文对这些方法进行了综述及对比,并推导出了多模态模型少样本适应的泛化误差界限及相应解决方案。
- 降低集中度改善句子 BERT 语义空间
通过使用 Sentence-BERT 创建的嵌入表征语义空间的结构,我们发现其中普遍存在的高维度问题,即 hubness 会导致不对称的邻居关系,而减小 hubness 可以提供更好的文本语义表征。
- 图像 - 文本匹配中的样本对语义主动挖掘
提出了一种新的图文匹配模型,叫作主动挖掘样本对语义图文匹配模型 (AMSPS),该模型采用多样化的学习模式使模型更加关注无法处理的负样本,从未注释的项目中主动挖掘更多隐藏的相关语义表示,大大提高了模型的性能和泛化能力。在 Flickr30K - ICML应用间检索和设计一致性检查的计算方法
从移动用户界面 (UI) 中提取语义表示并将这些表示用于设计师的决策过程已显示出成为有效的计算设计支持工具的潜力。我们采用大规模网络图像训练的视觉模型,以零 - shot 方式提取 UI 表示并超越现有专门模型,并使用数学基础的方法实现应用 - 超越感知:梦如何组织神经表征
语义表示,高级感官皮层中的虚拟体验对于塑造皮层表示是重要的,并通过对抗式梦境和对比式梦境的学习原理来解释高级感官皮层学习。
- 先有模式!用 MASCHInE 捕捉语义,学习多功能知识图嵌入
使用为生成原型图设计的启发式算法,从而生成可用于学习知识图嵌入的原型图嵌入,这有助于创造更加全面的嵌入,尤其对于实体聚类和节点分类任务效果显著。
- ACLBERT 模型中复合词的心理语言学分析
研究了 BERT 对化合物的语义表征的学习,证明了 BERT 在处理 LMD 方面表现更好,并且当使用上下文化表示时,更高的层是最能代表复合词含义的。
- 关联预测:面向强化学习任务无关的知识表示
通过引入归纳偏置和语义模块,将观察空间分解为对象,并以语义表征和动态知识进一步分解,提高了模型的解释性和泛化性,且实验表明,知识分离的明确程度与学习速度、准确性和解释性相关。
- AAAI重新思考无监督图像语义分割中的对齐和一致性
本研究提出了一种名为语义关注网络(Semantic Attention Network,SAN)的模型,在无监督的图像语义分割(UISS)任务中采用 “语义关注(Semantic Attention)” 模块生成像素级和语义级特征,该模型具 - EMNLP透过听力引导语义:口语句子嵌入的无监督学习
本研究通过转换语音信号为由声学单元发现生成的隐藏单元并提出了 WavEmbed,一个多模态连续自编码器,用于预测从语音传感器中提取的隐藏单元的密集嵌入,其次通过知识蒸馏提出 S-HuBERT。最佳性能的模型与人类判断之间的相关性中等(0.5 - 连续向量空间中的数学表达式的语义表示
本文介绍了一种在连续向量空间中表示数学表达式的方法,使用序列到序列架构的编码器生成向量表示,并比较了这种方法与自编码器的差异。最后,为了加快未来的项目,我们发布了一组等价的超越和代数表达式对的语料库。
- ACL精细对比学习用于定义生成
本文提出一种新型对比学习方法,以有效地学习和表达所考虑词语的语义组成部分,并使模型在进行定义生成任务时,能够生成更具体、高质量的定义,实验证明该方法优于现有模型。
- 双通路低延迟端到端口语理解
本研究利用内部预训练的语言模型构建强大的语义表示,使用 2 段 SLU 系统,结合语义和语音特征进行高质量语音识别,以提高用户体验和降低延迟。
- 多模态数据集中视角的重要性
本文主张采用注释实践来认识和代表多模式交流的内在透视性,并通过一系列注释实验介绍了在 Multi30k 和 Flickr 30k Entities 数据集上应用 FrameNet 注释的结果,其发现认为:(一)不同语言中产生的相同图片的标题 - ACL对比视觉语义预训练增强自然语言表示中的语义
该研究探讨了对比视觉语义预训练的影响,通过比较 GPT-2 和 CLIP 形成的英语语言表示的几何和语义特性,发现对比视觉语义预训练显著缓解了 GPT-2 上存在的各向异性,提供了较好的词级和句级的语义表示效果。
- EMNLP葡萄酒不是 v i n. -- 关于语言间分词兼容性的探讨
本文就多语言的静态和情境化嵌入空间的分词兼容性问题提出了解决方案,可以帮助系统设计人员创建具有兼容性的跨语言词汇,从而提高多语言模型的性能。
- ICCV零样本动作识别的详细排练
本文提出了一种基于 Elaborative Rehearsal 技术的 ER-enhanced ZSAR 模型,该模型使用 Elaborative Description 和 Elaborative Concepts 来扩展动作类别以及提高 - Tailor: 利用语义控制生成和扰动文本
Tailor 是一个基于预训练的 seq2seq 模型和语义表示的、能够生成文本输出并且能够在特征属性控制下改变目标文本的生成系统。通过修改控制代码,该系统能够灵活地实现对数据增强的语义控制,能够有效的改善模型泛化能力,并在多个任务中展现优 - MM使用人类动作构建视频语言数据集进行多模态逻辑推理
介绍了一个新的包含人类行为的视频和语言数据集,该数据集专注于描述动态人类动作的故事意图和局限性表达式,该数据集预计对评估包括否定和量化在内的复杂语句与视频之间的多模态推理系统非常有用。