无监督句子嵌入方法:通过最大化互信息实现
本文介绍了词表示学习的最新方法,通过互信息最大化来统一传统的词嵌入模型和现代上下文嵌入模型。此外,我们提出了一种构建新的自监督任务的框架,并提供了一种简单的自监督目标函数来最大化句子全局表示和 n-gram 之间的互信息。这种方法可以在自然语言处理、计算机视觉和音频处理等多个领域传递知识和推进进展。
Oct, 2019
本文介绍了 Sentence-BERT (SBERT),它是预训练 BERT 网络的修改版,利用孪生和三元组网络结构来推导语义上有意义的句子嵌入,可以使用余弦相似性进行比较,将 BERT / RoBERTa 的寻找最相似组合的时间从 65 小时降至大约 5 秒钟,并保持来自 BERT 的精度。在共同的 STS 任务和转移学习任务中,我们评价 SBERT 和 SRoBERTa,该方法优于其他最先进的句子嵌入方法。
Aug, 2019
我们提出了一种使用 Sentence-BERT(SBERT)和 RoBERTa 两种最先进的自然语言处理模型结合生成文档嵌入的新方法。通过将句子视为标记并为其生成嵌入,我们的方法可以捕捉文档内句子间和句子间的关系,从而生成更具语义丰富性和准确性的文档嵌入。通过对 Goodreads 数据集上的图书推荐任务进行实验,我们评估了我们的模型,并证明了其在生成嵌入方面的有效性。与仅使用 SBERT 生成的文档嵌入相比,我们使用 MULTI-BERT 模型生成的文档嵌入在嵌入质量方面始终表现更好,通过精确度作为评估指标,我们发现我们的模型能够捕捉到更细微的语义关系,从而实现更准确的推荐。总体而言,我们的结果证明了我们的方法的有效性,并表明这是一个改进推荐系统性能的有前途的方向。
Aug, 2023
利用信息最小化的对比学习模型 (InforMin-CL) 实现了无监督句子表示学习,通过最大化正实例之间的互信息并最小化其信息熵来保留有用信息和丢弃多余信息。实验结果表明,该模型在包括监督和无监督任务在内的十四个下游任务中取得了最先进的性能。
Sep, 2022
本文提出使用对比学习的方法,通过自我指导来改善 BERT 的句子表示质量,并将其应用于句子表示学习中。实验证明,与竞争对手的基线相比,我们的方法在广泛的句子相关任务上更加有效,并且在推理时效率高且鲁棒性强。
Jun, 2021
该论文介绍了一种新的基于 semantically structured sentence BERT embeddings(S^3BERT)的方法,通过近似可解释的 AMR 图表特征的方法将句子嵌入分解为语义特征,并通过 SBERT 教师模型的相似度打分来约束分解学习过程,从而保持神经嵌入的效力和效率。
Jun, 2022
本文提出了一种基于自监督学习的无监督语义图像分割的新方法,通过局部和全局高级别图像特征间的互信息最大化计算多个高级别特征,实现对不同语义类别的图像分割和互信息最大化的两阶段学习过程,并在已有数据集和引入的 COCO-Persons 数据集上相对推进了 26%(基于像素准确率评估)。
Oct, 2021
本文提出了一种使用对比学习进行监督学习 Fine-tuning 预训练 BERT 模型以创建高效句子嵌入的新方法,相比于只使用基于交叉熵的监督学习的当前最先进方法 SBERT,我们的方法可以在句子转换和语义文本相似度基准测试上改进 2.8%和 1.05%。
Jun, 2021
本文介绍了一种基于 BERT 的模型 MetricBERT,该模型通过学习嵌入文本并同时遵循传统的掩码语言任务,以在定义明确的相似度度量下进行。我们主要关注于推荐中的学习相似性的下游任务,表明 MetricBERT 在超越其他最先进的替代方法并取得显著优势方面出色地表现。此外,我们还发布了一个由领域专家制作的视频游戏描述数据集以及测试集的相似性注释。
Aug, 2022
本研究提出了一种新的无监督方法,通过使用单语数据来获得跨语言句子嵌入,产生了合成平行语料库,使用预训练的跨语言掩码语言模型(XLM)对其进行微调以得到多语言句子表示,并在两个平行语料库挖掘任务上评估了表示的质量,结果表明,这种方法可以比基准 XLM 模型获得高达 22 个 F1 点的改进。此外,我们还观察到,单个合成的双语语料库能够改善其他语言对的结果。
May, 2021