知识增强文本生成调查
本研究提出使用记忆网络作为增强模型来生成 KB-to-text 中的人类可读句子,实现更多信息的传递。通过从 WebNLG 中获取数据集,并对模型进行多次的评测和实验,证明了本文所提出的解决方案的有效性以及内在特性的探究。
Sep, 2022
本文介绍了一种新型图形转换编码器,可处理知识图谱等非层次性图形的内容,应用于科学文本领域的图 - 文本生成,评价结果表明,该技术可以产生比竞争的编码解码方法更具信息量且结构更好的文本。
Apr, 2019
使用知识图谱增强对话代理的准确性和全面性,但在对话时生成文本仍被认为是一项具有挑战性的任务,本文回顾了知识图谱文本生成的不同架构,包括图神经网络、图变换器和序列到序列模型,选择使用序列到序列变压器模型(PLMs)作为知识图谱到文本生成任务的模型,并探索未来多语言维度的研究方向。
Jul, 2023
该研究综述了结构化知识增强故事生成研究领域,总结了现有方法是如何将结构化知识融入到故事生成中的,涉及故事语料库、结构化知识数据集和评价指标,并探讨了知识增强故事生成的挑战和未来研究方向。
Dec, 2022
本教程关注于文本生成,这是一类自然语言生成任务,它以一段文本作为输入,然后生成一篇按照某些特定标准(如可读性或语言风格)改进的修订版本,同时保留原版文本的大部分含义和长度。
Oct, 2023
本文探讨以知识为指导的自然语言生成技术,旨在产生具有人类思维方式的文本内容。作者提出了十个目标来指导智能化自然语言生成系统的发展,同时简要回顾了以知识和推理为指导的自然语言生成技术的成就。最后,作者展望了未来的发展方向和挑战。
Dec, 2022
本文介绍了多种扩展序列 - 序列模型的方法,旨在解决从结构化数据中生成流畅自然语言的问题,特别关注潜在内容选择过程的变体,包括复制注意力和覆盖解码。我们提出了一种基于多样集成的训练方法,以鼓励模型在训练过程中学习不同的句子模板,并通过比较其生成的文本在五个自动度量标准和人类评估中的结果,表明这些技术可以提高生成文本的质量。
Oct, 2018
本文提出一种使用知识蒸馏的方法来有效利用生成对抗网络(GAN)进行文本生成,通过将自编码器(AE)用于提供连续的句子表示来演示该方法。实验结果表明,相较于传统的基于 GAN 的文本生成方法而言,该方法在 BLEU 得分和 Jensen-Shannon 距离(JSD)方面表现更好。
Apr, 2019