- ACL语言标签对零 - shot 神经机器翻译至关重要
本文探讨了多语言神经机器翻译的语言标记策略对无监督语言翻译性能的影响,实验表明在源语言标记基础上加入目标语言标记可以提高语义表征的一致性和减轻 “偏离目标” 的问题,使得零样本翻译在 IWSLT17,Europarl 和 TED talks - ACL从非基于事实的形式获取意义的可证明限制:未来的语言模型将理解什么?
本文研究了在没有辅助的情况下,自然语言处理中的语言模型是否能够理解文本的内涵。研究发现,当文本满足语义透明性时,assertions 可以使系统模拟语义关系,并保留原本等价的关系。但对于某些语言类别而言,表达在不同上下文中可以有不同的含义, - ICCV对比物体掩码提案的无监督语义分割
本文旨在通过采用对比优化目标中的预定中级先验,引入了一个两步框架来学习像素嵌入,从而解决了计算机视觉中的无监督语义表示学习问题,并证明此方法优于现有方法。
- CNN 中位置信息的深入研究:位置、填充和预测
本论文研究了卷积神经网络(CNNs)中位置信息的编码方式和其对语义表征的影响,通过设计新颖的任务和语义目标测试终止边界对语义表征的影响,揭示零填充驱动 CNNs 在其内部表征中进行位置信息编码的新发现,并证明位置信息既可以帮助也可以阻碍性能 - EMNLP跨语言文化中音乐流派感知建模
本研究旨在探究如何通过使用多语义表示、分布式概念嵌入和本体论等技术,实现在不同语境和文化背景下的音乐类型交叉注释的目标,并在该领域中提出了一个新的、领域特定的用于跨领域语料库的基准。研究结果指出:该方法能够实现高准确率的无监督跨语言音乐流派 - IJCAI诊断视觉语言导航中存在的环境偏差
本文旨在通过重新划分环境和特征替换的实验,探讨 Vision-and-Language Navigation 模型中的环境偏差问题。我们发现,ResNet 特征所传递的底层视觉外观直接影响了代理模型,进而导致环境偏差问题。根据这一发现,我们 - ACL跨语言编码器的局限性:基于无参考机器翻译评估的揭示
研究跨语言编码器在自然对抗机器翻译系统中的参照无机器翻译评估问题,找到该方法的两个关键限制并提出两种部分解决方案。
- IJCAI基于图的神经句子排序
本文提出了一种基于图神经网络的句子排序模型,通过共享实体来建立更具表达力、噪音更小的图表示,可以更准确地学习语义表示,实验结果表明,我们提出的模型准确性高于现有的最先进系统,并对实体如何帮助性能进行了深入分析。
- 自监督学习预设不变表示
本研究证明了在无监督环境下,通过使用基于 PIRL 的预处理任务可以显著改善图像语义维度的质量,且该方法可以用于提取具有良好不变性质的图像信息(如对象检测)中。
- ACL基于 CCG 的比较句组合语义推理系统
基于组合范畴语法(CCG)的框架,本文提出了一种构成语义映射的方式来处理英语中各种比较结构,并引入了一个有效处理比较逻辑推断的推断系统,包括涉及数词形容词、反义词和量化词的比较。我们在 FraCaS 测试套件上评估了我们系统的性能,并表明该 - ICCV动态上下文对应网络(DCN)用于语义对齐
该论文提出了一种名为 DCCNet 的动态上下文对应网络,通过引入注意力机制,整合了多种语义线索,对计算机视觉中语义对应问题进行了改进,并在多个数据集上验证了该方法的有效性。
- ACL用户生成文本中医学概念规范化的深度神经模型
本文使用神经网络解决医学文本中的概念标准化问题,实验结果表明神经网络能够更好地识别实体,并获得更好的语义表示。
- 面向任务型对话的基于组合表示的神经网络语言生成的约束解码
本文提出使用树状结构的语义表示来改进对话系统中基于任务的自然语言生成问题,并介绍了一个挑战性的数据集,并展示了基于此表示的编码方法以提高语义正确性的结果。
- 自监督视觉表示学习的扩展和基准测试
本文探讨了自监督学习的可扩展性,并在大规模数据集上评估了两种流行的自监督学习方法,并发现当前自监督学习方法没有充分利用大规模数据,且无法学习到有效的高层语义表示。同时,介绍了 9 个不同数据集和任务的自监督学习基准测试,必要时开展可比较的评 - ICML面向上下文的零样本学习用于物体识别
本文提出了一种基于语义表示的全新的 Zero-Shot Learning 方法,并引入了上下文因素提高了对象的分类效果,通过在 Visual Genome 上进行的实验表明,增加上下文信息可以显著提高标准的 ZSL 方法。
- CVPR使用学习编码的场景表示进行单目密集语义重建
该研究提出了一种基于变分自编码器的语义表示方法,实现了对三维语义地图的实时增量建立与空间一致的语义标签融合,可以用于单目关键帧语义映射系统,并能够实现对位姿、几何和语义的联合优化。
- 自适应交叉模态少样本学习
本文提出了一种机制,可以根据待学习的新图像类别自适应地从视觉和语义两方面结合信息,通过一系列实验表明,这种自适应组合可以在所有基准和 few-shot 情景上大幅优于当前单模态学习方法和模态对齐方法,特别是在少样本的情况下。
- ACL基于语义的神经机器翻译:使用 AMR
研究表明,通过在神经机器翻译中使用抽象意义表示(AMR)作为额外知识,可以显著改善一种强的基于注意力的序列到序列神经翻译模型在标准英德数据集上的翻译表现。
- CVPR零样本学习的分类器和样本合成
本文提出了两个使用零样本学习(ZSL)系统,该系统使用流形嵌入和自动生成视觉分类器来解决具有未知类的任务,并且在五个类视觉识别基准数据集上表现出卓越的性能。
- WSDM权重学习:一种针对广告检索的代价敏感方法
本文研究基于点击数据的检索模型,探讨在训练集中引入或忽略长尾查询 - 文档对的影响,提出了一种基于加权的策略用于学习长尾语义表示,并在必应赞助搜索和亚马逊产品推荐上进行实验。在线 A/B 测试结果显示,相比于不加权模型,点击率提高了 11.