神经网络引用表达生成的端到端方法
该研究提出了一种面向上下文的实体参照生成模型,并解决了现有模型依赖于特定实体训练数据的局限性,同时在 WebNLG 数据集上进行的实验表明,该模型在多个方面有着优越的表现。
Sep, 2019
本文旨在在生成语言上考虑基于非神经网络模型的表现,以推广广义的自然语言生成技术,并在针对两个数据集的实验中发现,某些任务使用非神经网络模型能够比神经模型获得更好的性能。
Mar, 2022
本文提出了使用 OntoNotes 语料库替代 WebNLG 的方法来评估神经指代形式选择模型,而其使用的英语和汉语表现出不同特点,其中汉语指代形式选择更取决于语境。
Oct, 2022
本文提出了一个具有相互作用的交互式 REF 模型,利用用于识别目标定位以及由 REC 模型定位的视觉区域的信号逐步修改 REs,实验证明该模型在三个参考数据集上优于现有方法,并通过人工评估证明其生成了更好且具有交互能力的 REs。
Aug, 2023
近年来,许多自然语言处理(NLP)的研究主要关注于性能改进。本文通过在上下文中生成指代表达式(REG-in-context)的任务作为案例研究,聚焦于 NLP 的语言和科学方面。我们对 GREC 进行分析,这是一个十多年前在英语中解决这个主题的多样共享任务的综合数据集。我们研究了模型在更现实的数据集上和使用更先进方法评估时的表现。我们通过不同评估指标和特征选择实验来测试这些模型。我们得出结论,GREC 不能再被视为可靠评估模型仿真人类参考生成能力的工具,因为结果受到语料库和评估指标选项的极大影响。我们的结果还表明,预训练语言模型对语料库的选择不太依赖,相比传统机器学习模型更能提供更强大的类别预测。
Jul, 2023
本研究提出了一种适应性重构网络,通过语义相似性计算、自适应定位和协作重构等三个模块的方式,克服弱监督条件下目标与表达之间的对应关系不足引发的问题,在五个数据集上的试验结果表明该网络优于现有的最先进方法。
Jul, 2022
本文提出了一种基于循环神经网络 (RNN) 的自然语言生成 (NLG) 新方法,其中在 RNN 计算之前应用了门控机制,以使得该模型能够生成适当的句子,并可通过共同训练句子规划和表面实现以生成自然语言响应。实验结果表明,该生成器在所有 NLG 领域中均表现出更好的性能。
Jun, 2017
利用 RSA 框架与深度学习方法相结合,在多步骤过程中生成更好的、可解释的表述,在复杂的视觉场景中进行实验,比较我们的方法与其他端到端深度学习方法以及 RSA 变体的表现,结果表明,我们的方法在人类理解方面优于类似 RSA 方法,而在有限数据的情况下优于端到端深度学习。
May, 2022
我们提出了一种统一的 REG 和 REC 模型 UniRef,它使用经过精心设计的图像 - 区域 - 文本融合层 (IRTF) 来融合图像、区域和文本,并提出了视觉条件的掩码语言建模 (VMLM) 和文本条件的区域预测 (TRP) 对 UniRef 模型进行预训练以更好地完成这两个高度相关的任务。
Oct, 2022