浪漫计算
本研究提出了一种新颖的神经模型,用于生成现代法语诗歌,该模型由两个预训练的神经模型组成,经过微调以进行诗歌生成任务。模型的编码器是基于 RoBERTa 的,解码器基于 GPT-2,这样模型可以受益于 RoBERTa 较好的自然语言理解性能和 GPT-2 较好的自然语言生成性能。通过评估结果表明,该模型能够成功地生成法语诗歌。在一个 5 分制的评分中,输出诗歌的典型性和情感得分最低为 3.57 分,可读性得分最高为 3.79 分。
Dec, 2022
该论文研究多语言环境下的文本风格生成问题,并基于长短时记忆人工神经网络和扩展语音和语义嵌入,实现了文学创作的风格生成,最终通过双语评估,调查调查和交叉熵等指标比较结果,认为该模型在创作文本方面优于随机采样和经典 LSTM 基线模型,并且生成文本的风格和目标作者十分相似。
Jul, 2018
使用不同的深度学习技术和算法生成乌尔都诗歌,通过 Rekhta 网站收集了 1341 个文本文件,采用 LSTM 和 GRU 等深度学习技术,并运用自然语言处理和机器学习分析和生成人们能够理解和使用的乌尔都语诗歌。
Sep, 2023
本研究使用 BART 和其他预训练模型,提出 FS2TEXT 和 RR2TEXT 以生成韵律诗和特定风格的诗歌文本,并解决了用户写作意图逐渐降低所生成的诗歌文本相关性的问题。同时,运用此模型进行的 AI 诗歌图灵测试显示高水平的诗歌爱好者不能区分 AI 生成的诗歌与人类的诗歌,显示出此模型在诗歌生成方面的出色表现。此模型有望帮助那些缺乏语言能力和创作灵感的现代诗人。
Nov, 2022
利用预训练语言模型生成高质量文言诗的简单有效方法。该方法采用 GPT 模型,生成各种形式的文言诗,包括绝句、律诗、词牌和对联。同时进行了微调并实现了生成藏头诗的方法。我们已在微信上发布了一个在线演示程序,以展示这种方法在生成文言诗方面的能力。
Jun, 2019
本文介绍一种简单又通用的方法,通过为语言模型的词汇表组合应用筛选函数来修改文本生成单元前的语言模型的输出,以实现对语言模型输出的调整。研究者正式开发了一个名为 CTGS 的 AI 创作助手,让用户可以根据需要使用多种限制条件生成文本,还介绍了一个新颖的 Prose 数据集模型,以及一个名为 Gadsby 的网络应用实现该技术。研究表明,这种方法相比单纯的微调,对拥有文字 e 的 Prose 数据集表现更优异。
Jun, 2023
本文探讨了基于神经语言模型和音节的诗歌生成问题,在 Dante Alighieri 的作品中进行了实验分析,结果表明生成的三行诗在句法、语法和诗歌风格上与 Dante 的真正作品相差不大。
Aug, 2019
该研究旨在利用 GPT-2 生成机器生成的五行诗,在评估指标的基础上探讨好诗歌的量化方法,并呈现 94 首排名高的五行打油诗以激发人类的创造力。
May, 2022
本文通过基于注意力机制的循环神经网络,利用一组关键字作为主题,生成类似于人类古诗词的诗歌,方法包括字符向量初始化、注重输入和混合式训练等技术。相比于现有的诗歌生成方法,我们的模型生成的诗歌与主题更加一致,语义更加丰富。
Jun, 2016
本文探讨自然语言模型在生成具有被误认为是他人所写的能力的在线文本方面的潜力,发现当前的这类技术中 GPT-2 可成功地模拟与欺骗常见的作者识别的方法,说明了这类技术的巨大潜力和其实际应用如非法信息识别和犯罪取证的重要性。
Mar, 2022