本文提出了一个结合对比学习和外部知识的短文本匹配模型,使用生成模型构建补全句子,利用对比学习方法获得更加语义化的编码,使用关键词与知识库相结合构建知识图谱,通过的实验证明了该模型在两个中文文本匹配数据集上达到了最佳表现。
Apr, 2023
文本匹配是将两段文本进行匹配并确定它们之间的关系的任务,本文提出了一种名为知识增强文本匹配模型(KETM)的新模型,通过从外部知识源中丰富上下文表示来增强模型的理解和推理能力。实验证实了我们的模型在四个数据集上表现良好,并且与不添加外部知识的基础模型相比,我们的方法的性能得到了提高。
Aug, 2023
论文提出一种新的方法,使用图像标题和来自图像搜索引擎的点击数据来学习文本 - 视觉嵌入,并通过建模嵌入的积极感知提出新的三元损失函数,以及引入一种新的基于小批次的难例负采样方法来提高学习过程的数据效率,实验结果表明,该方法的表现优于现有方法,并且对于现实世界的文本到视觉检索也十分有效。
May, 2019
本文提出了一种全新的深度记忆网络来帮助短文本扩展,从而提高短文本分类等机器学习任务的效果。实验结果表明,该方法在真实数据集上显著优于传统的文本扩展方法。
Aug, 2017
本文提出了一种使用外部知识源增强短文本语义表示的方法:包括注意力机制,将知识嵌入深度神经网络。通过实验验证,这种方法在短文本分类任务中优于现有技术。
Feb, 2019
本研究提出了一种快速、强劲的神经方法来进行通用文本匹配应用,通过保留原始点对特征、前一对齐特征和上下文特征三个关键特征,并简化其他所有组件,该模型在自然语言推理、释义识别和答案选择等任务上的性能与最先进技术相当,在参数更少的情况下,推理速度至少比类似的模型快 6 倍以上。
Aug, 2019
本文提出了一种使用语言建模的无监督方法来对句子进行摘要,该方法使用了两种语言模型,并使用专业领域的语言模型来保持持续的上下文匹配,同时保持输出的流畅性,实验表明,该方法具有良好的性能。
Jul, 2019
该研究提出了一种使用注意力机制直接从文本中选取答案的模型,特别适用于以文本中某个单词为答案的问题,并在多个数据集上取得了新的最优成绩。
Mar, 2016
通过语义文本匹配任务范式,本论文提出了一种新的神经抽取式摘要系统构建方法。经过与原有抽取式摘要方法数据集的实验对比,该方法取得了更好的抽取结果,并通过对 CNN / DailyMail 数据集的实验,创造了 44.41 的新高水平。我们相信,这种基于匹配的摘要框架的潜力还未完全被利用。
Apr, 2020
本文研究如何使用 Prompt-based Fine-tuning 技术提高语言模型和多模式因果变换器模型的效果,结果表明使用只有 35%-40% 的训练数据集便能取得可比较的效果,从而达到显著的时间和费用节约。
Apr, 2022