- ACL通过深层双语表示重新排名来改善低资源跨语言文档检索
本文提出了一种使用深度双语查询 - 文档表示来提高低资源跨语言文档检索性能的方法,并通过包括查询似然得分等额外特征,有效学习使用少量相关性标签为低资源语言对重新排序检索到的文档的模型。实验结果表明,本模型在 MATERIAL 数据集上优于竞 - ACL基于图模块性的跨语言词嵌入无资源评价指标
本篇论文介绍了使用 modularity 测量词向量间独立性的方法,并利用该方法改进了跨语言词向量在低资源、远距离语言对的情况下的无监督学习。
- ACL女孩是猫娘还是少女?迭代规范化法实现非同构嵌入的跨语言对齐
通过迭代正则化方法,使得非同构语言 pairs 的单语词嵌入向量单位化和对齐,从而提高跨语言词嵌入的翻译准确度,特别是在英文 - 日文 pairs 中,测试准确性从 2% 提高到 44%。
- 如何(正确地)评估跨语言词向量:关于强基线、比较分析及一些误解
本文基于多语言词嵌入(CLE)并从多个方面对 CLW 模型进行了全面评估,提出了优化 CLE 模型的方法及对现有基线进行重新评估的重要性。
- 跨语言否定范围检测的神经网络
本文研究了如何使用跨语言的单词嵌入或通用依存关系,在中文数据集上测试神经模型以检测否定范围,并发现即使在单语环境中,建模语法仍然很有帮助,然而跨语言单词嵌入的帮助相对较小,分析了这一任务仍然存在困难的情况。
- EMNLP通过中间相遇提升跨语言词嵌入
本研究中,我们提出了一种修改交叉语言同义词向中心点移动的方法,可通过最初的线性变换对两个不相交的单语向量空间进行对准来有效学习交叉语言词嵌入,并实现更好的交叉语言整合。同时,我们的实验结果表明该方法明显优于现有方法在单语和跨语言评估任务方面 - NIPS语音和文本嵌入空间的无监督交叉模态对齐
该研究提出了一种无监督的跨模态对齐框架,通过对抗训练和优化过程来实现语音和文本的嵌入空间对齐,从而帮助开发对低资源语言进行语音识别和语音到文本翻译的自动化系统,并且在分类和翻译任务上的表现与监督的方法相媲美。
- ACL一种强大的自学习方法:全无监督跨语言词嵌入映射
本文提出了一种新的无监督初始化和稳健的自学习算法来学习跨语言词嵌入,成功地克服了传统方法在更实际的语境下所面临的困难,并在标准数据集上取得了最佳效果,甚至超过了以往的监督式系统。
- ICLR无平行数据的单词翻译
本文通过无监督的方式对单语词嵌入空间进行对齐,构建两种语言之间的双语词典,旨在为全自动的机器翻译提供潜在影响。实验表明该方法在英语 - 俄语和英语 - 中文等语言对中效果很好,且无需使用字符信息。
- ACL使用双语词典进行标注低资源语言的模型转移
本研究提出了一种新颖的基于跨语言词向量的神经网络模型,通过高覆盖的双语词典训练,利用跨语言模型转移的方法,针对低资源语言的注释预测问题提出了解决方案,并通过多种主动学习启发式方法,提升了该方法的性能。
- 跨语言推理的基准线和测试数据
本文提出将 SNLI 风格自然语言推断的研究推向多语言评估,为阿拉伯语,法语,西班牙语和俄语提供测试数据,并使用跨语言词嵌入和机器翻译构建基线系统,最终系统的平均准确率超过了 75%,并着重实现了多语言推断的进一步研究。
- ACL从句子对齐学习跨语言词向量的强基线
该论文探讨了跨语言词嵌入在算法使用不同特征集合时的表现差异,并发现使用句子 ID 特征集合的算法表现显著优于不使用的算法。作者认为利用句子 ID 特征集合的算法与传统对齐算法在性能表现上较为相似,而通过将额外的信息引入跨语言词嵌入,这种性能