本研究提出了一种将文本匹配建模为图像识别问题的方法,即通过构造匹配矩阵并利用卷积神经网络捕捉匹配模式,以此提高匹配准确度,并通过实验证明了该方法的优越性。
Feb, 2016
本文介绍了一种新的句子级别的答案选择方法,采用预训练语言模型计算输入文本的向量表示,并应用大规模语料库的迁移学习。通过引入潜在聚类方法和从 listwise 到 pointwise 的目标函数,提高了比较 - 聚合模型的性能。实验结果表明,该方法在 WikiQA 和 TREC-QA 数据集上表现优于现有方法,达到了最新的表现水平。
May, 2019
本篇研究提出了一种卷积神经网络模型来匹配两个句子,并应用于不同语言和不同性质的匹配任务中,实验证明该模型表现出了良好的性能和比竞争模型更优的结果。
Mar, 2015
提出基于比较 - 聚合框架和两阶段注意力的机器阅读理解模型,在 MovieQA 问答数据集上取得了最新成果。通过生成对抗样本研究模型的限制和卷积神经网络与递归神经网络之间的差异,并通过分析与人类推理的差异来评估模型的泛化能力。
Aug, 2018
本文分析了几种神经网络设计(及其变体),对八个数据集进行了广泛的比较,包括释义识别、语义文本相似性、自然语言推断和问题回答等任务。我们提供了一个系统的研究,表明编码上下文信息的 LSTM 和句间交互至关重要,而 Tree-LSTM 并不能像先前宣传的那样有所帮助,但却出人意料地提高了 Twitter 数据集的性能;增强顺序推理模型是迄今为止较大数据集的最佳选择,而基于词对交互的模型在较少数据可用时实现最佳性能。我们将我们的实现作为开源工具包发布。
Jun, 2018
通过语义文本匹配任务范式,本论文提出了一种新的神经抽取式摘要系统构建方法。经过与原有抽取式摘要方法数据集的实验对比,该方法取得了更好的抽取结果,并通过对 CNN / DailyMail 数据集的实验,创造了 44.41 的新高水平。我们相信,这种基于匹配的摘要框架的潜力还未完全被利用。
Apr, 2020
本文提出了一种对比学习模型,用于文本摘要的有监督抽象,通过将文档、其黄金摘要和模型生成的摘要视为同一平均表示的不同视图,并在训练过程中最大化它们之间的相似性,从而改进了强序列到序列的文本生成模型(即 BART)。人类评估也显示,我们的模型与没有对比目标的对应模型相比,实现了更好的忠实度评分。
Sep, 2021
本文提出了一种基于神经网络的、端到端的异构数据(视频到文本)对齐方法,采用长短时记忆(LSTM)模块栈移动数据进行对齐操作,避免了已有方法中的局限性和缺陷,并在半合成和实际数据上取得了领先于现有技术的表现。
Feb, 2018
本研究提出了一种快速、强劲的神经方法来进行通用文本匹配应用,通过保留原始点对特征、前一对齐特征和上下文特征三个关键特征,并简化其他所有组件,该模型在自然语言推理、释义识别和答案选择等任务上的性能与最先进技术相当,在参数更少的情况下,推理速度至少比类似的模型快 6 倍以上。
Aug, 2019
本文提出了一种新的 Transformer 的序列匹配方法,通过在多个层级上学习头部匹配表示来匹配序列对,实验表明,我们的方法在仅依赖于预计算的序列向量表示的多个任务上可以达到新的最优表现。
Jan, 2020