word2vec 参数学习解析
本文旨在解释 Tomas Mikolov 等人在论文 “Distributed Representations of Words and Phrases and their Compositionality” 中的第四个方程(负采样),该论文解释了 word2vec 软件的学习模型及其最新的词嵌入技术。
Feb, 2014
本文介绍了一种基于可扩展的贝叶斯神经词嵌入算法,该算法依赖于 Skip-Gram 目标的变分贝叶斯解决方案,并提供了详细的步骤描述。我们在六个不同的数据集上展示实验结果,说明该算法在词类比和相似性任务上的表现与原始 Skip-Gram 方法相当。
Mar, 2016
该研究使用分析模型从传统理论中探究自然语言处理系统的统计学习方法,并在此基础上导出了有关使用这些算法和共现数据的系统的见解,进一步揭示了 Word2Vec 算法的潜力和其中的偏差,同时分析了共现模型中的统计依赖密度,并且发现了分布假设的部分实现。
Apr, 2022
本文提出一种基于 skip-gram 模型的新方法,其中每个单词被表示为一组字符 n-grams 的加和。该方法快速、可在大型语料库上快速训练模型,同时可以计算未出现在训练数据中的单词的表示。我们在九种不同的语言上评估了我们的单词表示,通过与最近提出的形态单词表示进行比较,我们发现我们的向量在这些任务上达到了最先进的性能。
Jul, 2016
本论文研究了分布式语义模型与小样本数据的问题,并展示了如何使用神经语言模型 Word2Vec,通过以前学习语义空间的背景知识,仅对其标准体系结构进行微小修改,以从微小数据中学习新术语,并在单词定义任务和少量上下文的例子任务中,相较于最先进的模型,呈现出大幅增长的性能。
Jul, 2017
本文描述了 Word2vec 算法在推荐系统中的应用和默认参数的问题,并通过 hyperparameter optimization 的方法,大幅提高了推荐命中率,在 Twitter Who To Follow 推荐中还成功提高了 15%关注率。
Sep, 2020
本文介绍了连续 Skip-gram 模型的扩展方法,包括减少常见词的子采样、负采样优化、短语学习等,以提高单词向量的质量和训练速度,为解决单词顺序和习惯用语表示上的问题提供了简单的解决方法。
Oct, 2013