本文介绍了一种采用句子语法、句际连贯关系和全局连贯模式的统一一致性模型,该模型在局部和全局判别任务上表现良好,优于现有模型,并建立了新的最新技术成果。
Sep, 2019
本研究提出了一种无域限制的神经模型,可用于度量多个方面的连贯性,并能在生成新语句时保持连贯性,该模型包括区分性模型和生成性模型,以及一种新的基于神经潜变量马尔科夫生成模型,可捕获文本中句子之间的隐含连贯性依赖关系,并在多个连贯性评估方面取得了最先进的表现,为处理语篇上下文生成连贯性文本迈出了一步。
Jun, 2016
本研究探索了一种本地判别神经模型来提高文本的一致性,这样可以实现更广泛的领域泛化,从而显著提高了文章的可读性。
May, 2019
本研究提出一种使用话语上下文和奖励机制来从话语角度提高翻译质量的模型,能够有效提高翻译质量和话语连贯性。
Nov, 2018
本文提出了一种新的神经语言模型,它具备两个神经鉴别器,可以在句子层面(内聚性)和段落层面(连贯性)提供反馈信号,并且使用了一种称为负关键序列训练的简单而有效的策略梯度方法进行训练。结果表明,相对于基线(基于双向 MLE 训练的复发关注神经语言模型),我们的方法有效改善了模型表现。
该论文提出了一种正式和计算的口头表达的一致性的设置和评估方法,该方法通过联合训练多种任务的模型,在评估一致性的各个任务上表现出更好的性能,为大规模自动评估一致性提供了坚实的基础。
Oct, 2023
通过端到端的无监督深度学习方法,可以有效地建立并评估理解连贯文本结构的模型,从而实现有用的文本表示方法,有利于句子语义相似性和重复检测等 NLP 任务的完成。
Nov, 2016
本研究提出一种基于认知写作理论的新型多任务训练策略,为神经模型生成连贯文本提供辅助技能。在三个开放式生成任务中进行了广泛的评估,实验表明我们的模型在有限标注数据和全监督设置下都优于强基线模型,并且经过人工评价,显示我们的模型能够生成更加连贯的文本。
Oct, 2022
提出了一种多任务学习架构,用于基于从文本中提取摘要,其中包含摘要器和连贯判别器模块,通过预训练的转换模型(基于模型)和转换矩阵(MAT-based)将句子表示合并,实现了可微分训练,并以此最大化了连贯判别器的连贯度分数,并通过人工评估证实了我们方法提高了从原始文章位置开始提取的连续句子的比例以及有效保留了其他自动评估指标。
May, 2023
通过三种不同的角度(数据属性、手工设计和基于模型的相关性)分析任务相关性,本文提出了一种层次框架并使用粗粒度到细粒度的范式,使模型从所有任务中学习基本语言属性,提高相关任务的性能,并减少不相关任务的负面影响。
Aug, 2022