本文介绍了 10 种用于捕捉句子简单语言特征的探针任务,使用这些任务来研究三个不同编码器训练的嵌入,并揭示了编码器和训练方法的有趣特性。
May, 2018
本文提出了一种基于变分概率框架的深度潜变量模型,使用双语数据,利用拥有共性的语义信息与特性进行训练,使模型可以将并行语句进行源分离,得到隐含的语义向量,进而对单语数据进行预测。实验证明,该方法在无监督语义相似性评估方面的表现明显优于现有方法,并且还能在不适合使用简单词语重叠作为相似性指标的更难评估子集中发挥最大的作用。
Nov, 2019
介绍了一种适用于高级自然语言处理的句子向量编码框架,该框架可以从编码器 - 解码器模型中提取具有相似向量表示的常见语义信息的句子 latents 表示。我们将句子表示的应用用于两个不同的任务 -- 句子复述和段落摘要,使其适用于常用的循环框架处理文本。实验结果有助于深入了解向量表示适用于高级语言嵌入。
Sep, 2018
本文对最新的句子嵌入方法进行了全面评估,通过使用多样的下游和语言特征探测任务,表明与在蕴涵数据集上训练的句子编码器相比,使用具有深度上下文相关性单词嵌入的词袋模型可以在许多任务中产生更好的结果,但我们远未达成一个可以在多个下游任务中持续表现的通用编码器。
Jun, 2018
通过研究嵌入式语句在较少语言资源环境下的探测技术,揭示了探测数据集规模和分类器等结构设计选择对探测结果影响很大,同时,强调英语探测结果无法转移至其他语言,未来应进行更公平和全面的多语言句子级探测任务评估。
Jun, 2020
本研究挑战了从预训练语言模型(PLMs)中获得句子嵌入所必须的显式单字限制的普遍观点,并通过实验证明了这种方法对于判别模型或生成型 PLMs 的精调并非必需。在此基础上,我们提出了两种创新的提示工程技术,可以进一步增强 PLMs 原始嵌入的表达能力:假装的思路链和知识增强,并详细研究了导致其成功的潜在因素。
Apr, 2024
本研究介绍了一种生成句子嵌入向量的模型,旨在实现到其他自然语言处理任务的迁移学习,并探讨了模型复杂度、资源消耗、迁移任务训练数据可用性和任务性能之间的关系。作者发现句子嵌入迁移学习通常优于单词级别的迁移,并可以在极少量监督训练数据的情况下实现出人意料的良好表现。
Mar, 2018
通过语义图平滑,在经验上探索一种无监督学习更判别句子表示方法的方法。利用预训练模型得到的句子嵌入来提高文本聚类和分类任务的结果。经验证,我们的方法在八个基准测试中表现出一致的改进,展示了语义图平滑在改进句子嵌入用于监督和无监督的文档分类任务中的潜力。
Feb, 2024
本文提出了一种基于多模态对比目标的句子嵌入学习方法,利用同时包含视觉和文本信息的数据提高了语义相似性任务的性能,并通过分析文本嵌入空间的性质解释了本方法提高性能的原因。
Apr, 2022
本文介绍了一种简单但高效的无监督学习方法,用于训练分布式表示的句子嵌入。该方法在大多数基准任务中性能优于最先进的无监督模型,突显了所产生的通用句子嵌入的健壮性。
Mar, 2017