本论文探讨采用跨语言预训练的零样本方法来学习多模态表示,提出建立跨语言图像检索模型的简单实用方法,并引入了一种新的目标函数来测试多语言 MSCOCO2014 字幕测试数据集(XTD10)的零样本模型性能,证明跨语言模型可用于零样本的下游任务, 如多语言图像标记。
Sep, 2021
本文介绍了一种零射击跨语言主题模型,利用迁移学习来处理多个语言的数据集,以解决传统基于词袋的主题模型所面临的单语言或巨大而稀疏的词汇表等问题,并评估了在不同语言中同一篇文章的主题预测的准确性和连贯性,结果表明所转移的主题是连贯且稳定的,具有潜在的未来研究方向。
Apr, 2020
该论文介绍了一种使用跨语言预训练进行零 - shot 学习的多模式语言和视觉问题解决方法,它可以用于构建跨语言图像检索模型和改进文本嵌入聚类,并在多语言环境下进行评估。
Nov, 2020
本研究采用来自多任务学习的自动课程学习方法,旨在动态优化对于语法分析模型下游任务的性能,从而实现在低资源语言中的零样本情况下的跨语言迁移,表明这种方法比均匀和大小成比例采样更好。
Mar, 2022
本文提出一种多任务编码 - 解码模型,通过多语言领域内语料库和英文 - 逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
本篇研究提出了一个新颖的、与语言无关的方法来对语言模型进行 “引导”,从而在低资源和零 - shot 跨语言环境中提供特别有效的性能。
本文介绍利用多语言预训练生成式语言模型进行零 - shot 的跨语言事件论元提取的研究。通过将 EAE 视为语言生成任务,论文提出的方法能够有效编码事件结构并捕获论元之间的依赖关系,提出了语言无关的模板以表示事件论元结构,从而适用于任何语言,最终在源语言训练模型,并直接应用于目标语言以实现事件论元提取。实验表明,所提出的模型在零 - shot 跨语言 EAE 方面优于当前最先进的模型,论文对它的优势和现有限制进行了全面的研究和误差分析。
我们的研究展示了多语言语境下数据集和模型生成的图像标题之间的显著语义差异,以及不同语言训练的模型在对应语言的测试数据上表现最佳,而在多语言内容上训练的模型在所有评估数据组合上都表现良好,这对于改善图像理解的多样化感知具有重要意义。
Oct, 2023
该研究提出了一种模型,即使没有针对该对象的训练数据,也能在图像中识别对象,并从无监督的大型文本语料库中获取对未知类别的必要知识,在语言中的分布式信息可以被视为理解物体外观的语义基础。
Jan, 2013
本文提出了一种对视觉语言预训练模型进行对事件及相关参数角色理解的对比学习框架,并结合文本信息提取技术,利用多个提示函数来构造事件结构,设计基于最优传输的事件图形对齐损失来捕获事件参数结构,通过无监督学习进行预训练,并在零样本的情况下取得了优秀的性能。
Jan, 2022