BERT Goes Shopping: 对产品表示的分布式模型的比较
本文提出 Query2Prod2Vec 模型,用于将产品搜索的词汇表示与数字商店中的产品嵌入相联系。 该模型比 NLP 和 IR 文献中已知的技术更准确地提供了产品搜索结果,并着重强调数据效率对超出作大型零售商以外的产品搜索的重要性。
Apr, 2021
Product2Vec 是一种基于 Word2Vec 方法的表示学习算法,通过对商品进行嵌入,来分析市场结构和制定产品线优化策略,并结合经济理论和因果推断对 Word2Vec 进行改进,以提高预测需求和价格弹性的准确性。
May, 2020
本文提出一种名为 MRNet-Product2Vec 的方法,使用区别化的多任务双向循环神经网络,创建商品的通用嵌入,以提高电子商务生态系统中的客户体验和增加收入。经定量和定性评估,表明该方法的性能几乎与稀疏和极高维 TF-IDF 表示相当,降低了将商品表示为特征时的计算复杂度。
Sep, 2017
提出了一个名为 E-BERT 的统一的预训练框架,旨在解决 BERT 在 E-commerce 相关任务中无法很好支持两种级别的领域知识的问题,该框架通过自适应混合掩蔽实现了短语级别知识的保留以及通过邻居产品重构实现了利用产品级别知识,研究表明 E-BERT 在评论问答、方面提取、方面情感分类和产品分类等四个下游任务中有着良好的表现。
Sep, 2020
该研究介绍了新的方法来支持新产品开发 (NPD) 过程中的情感和意见分类。此研究评估了两种流行的词嵌入技术 Word2Vec 和 BERT,并使用经典机器学习和深度学习算法将它们作为输入来识别情感分析和意见检测的最佳表现方式,并发现 BERT 词嵌入加上平衡随机森林是用例情感分析和意见检测的最准确单一模型。另外,本文还通过对具有相同情感的 tweets 的单词图分析提供未来产品开发的反馈,以突出潜在的改进领域。
Apr, 2023
本文介绍了嵌入式模型在电商搜索中的应用,该模型由两个塔式变压器编码器构成,利用自适应对抗性学习和级联训练方法,以特别关注基于内容的特征并有效地在噪声大的数据上进行训练,检测出相对于原方案 10%的 RECALL@20 的改进并通过在线 A / B 测试达到了每次搜索中增加购物车数量(CAPS)和商品销售总值(GMV)方面 1.5%和 4.1%的提高。
Sep, 2022
H1 嵌入模型在电子商务平台的产品描述离线术语索引中,通过整合产品检索的词汇方法和基于语义嵌入的方法的优势,提出了一种构建语义丰富术语词汇的方法,能够作为单个标记来处理多词产品术语,提高系统的精度而不影响召回率,此模型在 WANDS 公共数据集上的混合搜索系统得分为 mAP@12 = 56.1% 和 R@1k = 86.6%,超过其他最先进的模型。
Jun, 2024
本文提出了一种新型的潜向量空间模型,可在无需明确注释的情况下,联合学习单词、电子商务产品的潜在表示以及两者之间的映射,能直接建模产品与特定单词之间的鉴别关系,并在学习排序库特征方面证明其性能优越性。
Aug, 2016
Meta-Prod2vec 提出了一种新方法来计算物品之间的相似度,该方法利用现有的物品元数据,通过注入元数据以正则化物品嵌入来计算物品的低维嵌入,从而提高推荐任务的性能。
Jul, 2016
本文研究了语境化单词嵌入,并集中讨论了 BERT 这一深度神经网络,该网络产生了语境化的单词嵌入并在多个语义任务中创下了最好的记录,并研究了其嵌入空间的语义一致性。该文章表明,BERT 具有一定的语义一致性,但并未完全符合语义向量空间的自然期望,尤其是发现单词出现在的句子位置虽然不具含义,但在单词嵌入中留下了明显的痕迹,破坏了相似性关系。
Nov, 2019