本文系统地比较了学习分布式短语或句子表示方法的模型,并发现最佳方法取决于预期应用程序,对于 supervised 系统,更深层次、更复杂的模型更具优势,但建立可通过简单空间距离指标解码的表示空间最好采用浅的 log-linear 模型。我们还提出了两个新的无监督表示学习目标,旨在优化训练时间、领域可移植性和性能之间的平衡。
Feb, 2016
本研究探讨了利用 Stanford 自然语言推断数据集的监督学习训练通用句子向量表示,相比于 SkipThought 等无监督方法,该方式在多种迁移学习任务中表现更优,因此表明自然语言推断适用于迁移学习。
May, 2017
本论文探讨了利用多个训练目标来学习句子表示的多任务学习框架,提出了一种有效实现的方法,通过多项实验得出该方法可以在转移学习和低资源环境中大幅度提高语言处理的效率。
Mar, 2018
本文综述了句子表示学习的各种方法,包括传统的和基于深度学习的技术,并对该领域的主要贡献和挑战进行了系统梳理,结论强调了句子表示学习在自然语言处理中的重要性和面临的挑战,并提出了未来研究方向和改进句子表示质量和效率的潜在途径。
May, 2023
本文提出了一种基于上下文概率比较的新框架来解决语句相似度计算中受限于有标签数据大小以及无监督语言建模中训练和测试之间的差距的两大挑战,能在无监督学习中生成高质量语义相似性分数数据集并在不同数据集中显著提高了现有基线的性能。
May, 2021
本文讲述了如何通过自动生成语义不同但结果相似的句子组集来学习一种转换,以去除词法语义但保留结构信息,并证明这种方法在结构聚类方面的效果优于词汇语义聚类方法,最终在少样本解析任务中优于原始上下文化语言表示。
Oct, 2020
利用依存分析和基于规则的指标,我们能够通过利用显式的篇章关系来筛选高质量的句子关系任务,从而得出高质量的句子嵌入向量及用作 BERT 等更大型模型的监督微调数据集。
Oct, 2017
本研究提出了一种基于 transformers 的新方法,通过对不同级别单元的上下文化表示进行编码,动态捕捉对话依赖分析所需的信息,并将对话关系识别视为序列标记任务
May, 2022
介绍了一种适用于高级自然语言处理的句子向量编码框架,该框架可以从编码器 - 解码器模型中提取具有相似向量表示的常见语义信息的句子 latents 表示。我们将句子表示的应用用于两个不同的任务 -- 句子复述和段落摘要,使其适用于常用的循环框架处理文本。实验结果有助于深入了解向量表示适用于高级语言嵌入。
Sep, 2018
该论文提出了一种针对句子表示的持续学习场景,通过使用独立于语料库的特征对句子编码器进行初始化,并使用布尔运算的概念器矩阵来连续更新句子编码器,该方法可以在保持先前语料库准确性的基础上,从新的语料库中学习特征;并在语义文本相似性任务上对该方法进行了评估,表明该方法可以不断地学习新的语料库特征而保留其在先前语料库上的能力。
Apr, 2019