WriterForcing:生成更有趣的故事结局
提出了一种用于预测故事结尾的神经网络,名为 Diff-Net,能够在三个语义层面上对两种结尾进行区分,并在 Story Cloze Test 数据集上获得了显著的性能提升,这将有助于未来的相关研究。
Dec, 2019
本文介绍了 Story Ending Generation (SEG) 任务,提出了一个由 Generator 和 Reward Manager 组成的框架来生成一个连贯的故事结尾,其中 Generator 使用了指针生成网络与覆盖机制来处理词汇表外(OOV)和重复的单词,同时使用混合损失方法来生成具备高语义相关性的故事结尾,Reward Manager 使用策略梯度强化学习(PGRL)来微调 Generator,实验表明,相较于序列到序列基准模型,我们的模型在自动评估和人类评估中分别提高了 15.75%和 13.57%的 CIDEr 和一致性得分
Jan, 2019
本文提出了一种新型的故事结尾生成模型,该模型采用增量编码方案来表示故事情境中的上下文线索,并通过多源注意力引入常识知识以促进故事理解和生成连贯、合理的结尾。模型能够通过构建上下文线索与使用隐含知识生成更合理的故事结尾。
Aug, 2018
该论文提出了一种基于对比学习的故事结尾生成框架 CLSEG,其采用多方面采样机制和特定于故事的对比训练策略来解决故事结尾与故事情节之间的一致性问题。实验证明,CLSEG 相对于基线方法表现更好,能够产生更具一致性和合理性的故事结尾。
Feb, 2022
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
该研究探讨了基于深度神经网络的自动生成响应的模型,着重讨论了结构松散的任务,如基于单词级别的对话响应生成,并提出了基于生成的编码器 - 解码器神经网络架构的新模型,以增强对话的长期历史纪录、建模对话中的不确定性和歧义性、生成具有高级组合结构的响应。
Nov, 2016
研究表明 Seq2Seq 模型在一些特殊结构外的数据上表现可能不理想,而本文探讨了在一个简单的、明确定义的结构转换任务中,该模型实现泛化的能力如何取决于其随机种子的选择且其泛化结构的能力高度敏感。
May, 2018
在信息时代,人们阅读冗长的新闻文章的时间越来越少,提供简洁的信息摘要变得比以往任何时候都更为重要。本文旨在改进现有的架构和模型,针对抽象文本摘要进行微调超参数,并尝试特定的编码器 - 解码器组合,以提高摘要生成的效果。
Mar, 2024
本文介绍了多种扩展序列 - 序列模型的方法,旨在解决从结构化数据中生成流畅自然语言的问题,特别关注潜在内容选择过程的变体,包括复制注意力和覆盖解码。我们提出了一种基于多样集成的训练方法,以鼓励模型在训练过程中学习不同的句子模板,并通过比较其生成的文本在五个自动度量标准和人类评估中的结果,表明这些技术可以提高生成文本的质量。
Oct, 2018
该研究探讨了故事生成:创作系统可以在一个主题上构建连贯流畅的文本段落,使用一个大规模的数据集,通过分层式故事生成模型,研究人员成功地实现了模型融合,引入了新的门控多尺度自注意机制,并在自动化和人工评估中实现了显著的改进。
May, 2018