关键词universal representations
搜索结果 - 6
- 探索全模态大规模预训练的极限
我们提出了建立全模态智能的方法,能够理解任何模态并学习通用表示。通过提出一种可扩展的预训练模式 —— 多模态上下文(MiCo),我们能够在预训练过程中扩大模态数量、数据量和模型参数。MiCo 预训练模型在多模态学习中展现出重要的新能力,并在 - 预训练神经推荐系统:一个可迁移的零样本框架
通过利用用户 - 物品交互矩阵的统计特性,我们学习了用于支持无需用户或物品辅助信息的零 - shot 自适应(zero-shot recommendation)的通用表示,从而探索了预训练推荐模型在新领域构建推荐系统的可能性。
- ACL利用跨语言一致性正则化提升零样本多语言神经机器翻译
本文介绍了一种跨语言一致性正则化方法 CrossConST,用于在多语言神经机器翻译模型中实现零 - shot 翻译,以实现不同语言之间的普适表示,并提高翻译性能。实验结果证明 CrossConST 能够提高模型的翻译性能并降低句子表示间的 - EMNLP利用通用的表达和交叉映射提高零阶多语种翻译
提出了一种基于状态移动距离的多对多跨语言神经机器翻译模型,通过学习通用表示和跨映射关系,可以实现未经训练的语言对之间的零 - shot 翻译,实验证明该方法可以改善语义空间的对齐和预测的一致性。
- Categoroids: 通用条件独立
通过引入新的代数结构 - 分类体,综合了有向无环图和三元条件独立结构,从而定义了一个新的方法来表示条件独立性,并使用函子和单子来抽象地描述条件独立性的图形和非图形表示的忠诚度。
- KDD代码的通用表示方法
本研究提出了一种基于图形的代码表示技术,并通过有效的预训练策略生成通用代码表示。通过在真实数据集上的测试,表明该方法在方法名称预测和代码图链接预测方面具有最先进的结果。