本文提出了一种数据驱动的方法,学习句子的逐对排序,以改进自然语言生成应用程序中句子排序的性能。该方法在大规模学术文本语料库上进行验证通过,并公开源代码和数据集。
Jul, 2016
通过使用多粒度顺序、约束图和图神经网络,我们设计了一种新的排序方法,取得了新的最优表现,结果表明了使用多种排序信息和图神经网络整合句子内容和顺序信息的优势。
Jan, 2021
本文提出了一种基于图神经网络的句子排序模型,通过共享实体来建立更具表达力、噪音更小的图表示,可以更准确地学习语义表示,实验结果表明,我们提出的模型准确性高于现有的最先进系统,并对实体如何帮助性能进行了深入分析。
Dec, 2019
本篇论文介绍了一个名为 STaCK 的框架,基于图神经网络和时间常识知识对全局信息进行建模和预测句子的相对顺序,证明本文提出的方法非常适合进行序列预测问题。
Sep, 2021
通过端到端的无监督深度学习方法,可以有效地建立并评估理解连贯文本结构的模型,从而实现有用的文本表示方法,有利于句子语义相似性和重复检测等 NLP 任务的完成。
Nov, 2016
该论文提出了一种基于图神经网络的新方法,通过构建短篇小说的句子 - 实体图并利用 BERT 模型来学习句子的语义表征,减少图中的噪声,结合多种现有方法进行聚合以提高句子排序的性能,效果显著,使完美匹配率和 Kendall's Tau 指标分别提高了 5% 和 4.3%。
Mar, 2022
本研究旨在提出一种新闻类多文档摘要中信息排序的方法,该方法综合考虑事件的时间先后和主题相关性约束,经实验证实了该方法相对于两种基准方法有显著的排序改进。
Jun, 2011
本论文提出了一个基于注意力机制的排序框架,旨在训练模型进行句子排序和辨别任务。该框架采用双向句子编码器和自注意力变换网络以获取与输入顺序无关的段落表示。同时,它能够使用各种基于排序的损失函数进行无缝训练,并在两个任务中应用。实验结果表明,该框架在多个评估指标上优于众多最先进的方法。同时,相对于点对排序损失函数,该框架在使用点对和列表排序损失函数时取得更好的结果,这表明将两个或多个句子的相对位置纳入损失函数有利于更好的学习。
该研究提出了一种基于 Transformer 模型的 Reorder-BART 方法,旨在将文本中的乱序句子整合为有条理的文本,并在 7 个数据集上取得了较优的结果。其在零样本情况下也表现出良好的泛化能力。
Apr, 2021
本文通过优化基于语序监督的知识描述顺序预测和使用句法和语义正则化进一步提高生成的句子和知识图谱的一致性,以实现易于理解的知识图谱生成任务,并通过语法和语义约束获取了最先进的性能。
Jul, 2022