关键词shared representations
搜索结果 - 9
- AAAIDePRL: 个性化分散学习中共享表示实现线性收敛加速
通过共享表示,DePRL 是一种新颖的个性化分布式学习算法,可以实现分布式学习的线性加速收敛,并在数据异构环境中展示出卓越的性能。
- 混合正交专家的多任务强化学习
多任务强化学习 (MTRL) 通过共享表示,来克服代理程序普适性技能泛化的长期问题,本文介绍了在 MTRL 中学习共享多样性表示的一种新方法,称为 MOORE,它通过专家混合生成的表示的共享子空间来促进任务之间的多样性,研究表明 MOORE - 基于联合语音 - 文本模型的小样本语音理解
通过使用预训练的语音 - 文本模型,本研究发现只需 1 小时标注的语音数据,即可与仅使用 10 倍数据的仅语音预训练模型在口语理解任务(情感分析和命名实体识别)上取得可比较的性能;同时发现底层的语音 - 文本模型作为任务自主层面,在共享空间 - 关系提取的单模态和多模态表示训练
通过排除每种数据类型并独立评估文本和布局数据,我们研究了文本、布局和视觉信息的相对预测能力,证明了针对关系提取任务训练联合表示的有效性。我们的实验表明,双模态的文本和布局方法表现最佳,同时文本是最重要的单一预测因子,布局几何形状也具有高度预 - 多语言翻译中基于人工语言的知识共享学习
本篇论文研究了多语言神经翻译的基石,即跨语言共享表示;论文通过将编码器输出离散化为一系列条目的方式,提高了模型的鲁棒性和泛化能力,并尝试使用一种人造语言来分析模型的行为,发现类似的桥梁语言能够增加知识共享。
- MM自相似一致性与特征辨别探索 —— 无监督域自适应
该研究主要关注于在无监督领域适应中如何在全局分布对齐的同时同时考虑不同域的类信息,为了更 comprehensively 的进行对齐,提出了基于 Self-similarity Consistency 的新的域差异度量方法,同时加入了特征规 - AAAI多源神经变分推断
本文提出了一个基于可变自编码器的多源学习框架,其中每个自编码器都是在不同的信息源的条件下进行的。我们在小数据集上展示了其学习效果,并在结构化输出预测方面进行了评估,同时证明了在多源情况下冲突检测和冗余可以增强推断的鲁棒性。
- 语音与人脸跨模态匹配的不相交映射网络
提出了一种新的框架,称为 Disjoint Mapping Network (DIMNet),用于跨模态生物识别匹配,特别是声音和面部。DIMNet 通过将它们分别映射到它们的共同协变量,学习了不同模态的共享表示,从而找到模态之间的对应关系 - CVPR跨针织网络的多任务学习
本文针对多任务卷积网络中已存在的枚举多种网络架构的不足,提出了一种新的可端到端训练的共享单元:“十字绣” 单元,通过这种单元可以学习到共享和任务特定的最佳组合方式,在多任务中通用且表现远远优于基线方法。