本研究提出了一种无域限制的神经模型,可用于度量多个方面的连贯性,并能在生成新语句时保持连贯性,该模型包括区分性模型和生成性模型,以及一种新的基于神经潜变量马尔科夫生成模型,可捕获文本中句子之间的隐含连贯性依赖关系,并在多个连贯性评估方面取得了最先进的表现,为处理语篇上下文生成连贯性文本迈出了一步。
Jun, 2016
本文介绍了一种采用句子语法、句际连贯关系和全局连贯模式的统一一致性模型,该模型在局部和全局判别任务上表现良好,优于现有模型,并建立了新的最新技术成果。
Sep, 2019
本研究提出一种层次神经网络模型,通过多任务学习,同时预测文档层次的信息连贯得分和词级别的语法角色,利用两个任务之间的归纳转移,提高模型泛化能力,并在不同任务中达到了新的最优表现。
Jul, 2019
本文提出了一种新的神经语言模型,它具备两个神经鉴别器,可以在句子层面(内聚性)和段落层面(连贯性)提供反馈信号,并且使用了一种称为负关键序列训练的简单而有效的策略梯度方法进行训练。结果表明,相对于基线(基于双向 MLE 训练的复发关注神经语言模型),我们的方法有效改善了模型表现。
Nov, 2018
本文通过设计一系列测试集来评估神经语言模型是否编码了逻辑关系、内在一致性和世界知识这些与上下文有关的复杂语言结构,研究发现通过这样的测试集,可以更好的评估语言模型的质量。
May, 2021
通过一种新的预测一致性评估框架来评估大规模预训练语言模型的能力,该框架可以快速、有效地提供对机器预测一致性的见解。
Sep, 2021
本研究探索了一种本地判别神经模型来提高文本的一致性,这样可以实现更广泛的领域泛化,从而显著提高了文章的可读性。
May, 2019
本研究提出一种使用话语上下文和奖励机制来从话语角度提高翻译质量的模型,能够有效提高翻译质量和话语连贯性。
介绍了一种基于 Centering 理论和 BERT 的参数化的 Discourse 评估度量,DiscoScore,在结构连贯性、事实一致性等方面优于当前流行的评估度量 BARTScore。
Jan, 2022
提出一种新的,用于量化两篇长篇文章之间的话语分歧的自动度量标准,该指标在代表性领域的三个数据集上进行了广泛的实验,证明与人类的偏好和 GPT-4 的连贯性评估更加一致,并且胜过了现有的评估方法。
Feb, 2024