- LUQ:基于 LLMs 的长文本不确定性量化
大语言模型(LLMs)在各种 NLP 任务中展示了非凡的能力。我们的研究首先强调了目前 UQ 方法在处理长文本生成时的局限性,然后介绍了 Luq,一种专门设计用于长文本的基于采样的 UQ 方法。我们的发现表明,Luq 在与模型的准确性分数相 - 随着文本增加,需求加大:推理时间训练有助于长文本生成
通过在长文本生成过程中使用临时的 Lora 模块来嵌入信息,我们的提出的方法 Temp-Lora 有效地保留上下文知识,提高了生成质量,同时降低了计算成本。
- 像放射科医师一样阅读放射学影像
提出了一种利用疾病定向检索框架以及事实一致性字幕生成器解决医学图像报告自动生成中的疾病区域强调、视觉和文本数据偏见、长文本生成等难题的方法。
- 长文本生成挑战赛
提出一项长文本生成的共同任务,使用 GloVe 自回归功率和指数定律平均百分比误差比 (GAPELMAPER) 作为衡量指标,希望能够为研究人员开辟出新的技术途径以生成长篇一致的文本。
- RecurrentGPT:(任意)长文本的交互生成
这篇论文介绍了 RecurrentGPT,它是一种神经网络模型,使用自然语言来模拟 LSTM 中的长短期记忆机制,从而实现生成任意长度的文本。不仅能生成 AI 生成内容(AIGC),还可以作为交互式虚构小说,直接与消费者进行互动, 是下一代 - NGEP:基于图形的事件计划框架用于故事生成
本研究提出一种基于自动构建事件图和神经事件顾问的事件规划框架,以提高长文本生成的性能,实验结果表明,该框架不仅在事件序列生成方面表现优异,而且在故事生成的下游任务上的效果也十分显著。
- ACL通过建模句子级和语篇级连贯性进行长文本生成
该论文提出了一种基于预训练的长文本生成模型,通过预测句子间语义相似度和区分正常和洗牌句序的两个预训练目标来学习句子和语篇级别的表示,从而能够生成比现有技术更加连贯的文本。
- COLING通过从摘要中进行分层监督进行长文本生成的总结,概述和阐述
提出了一种新的生成长文本的方法 SOE,它采用了概述、大纲和扩展的方法来为每个段落生成高效的文本,并通过重构策略无监督地提取每个段落的摘要以避免繁琐的总结过程。
- 基于图的多跳推理用于长文本生成
提出了一种融合多跳推理生成(MRG)的方法,该方法利用知识图谱学习句子级语义依赖关系,并分为基于图形的多跳推理模块和路径感知句子实现模块。实验结果表明,与强基线模型相比,MRG 显式地推断出骨架路径,能够生成更具信息性和连贯性的长文本。
- EMNLP基于规划的分层变分模型进行长篇多样化文本生成
本文提出了一种基于规划的分层变分模型,通过规划出一系列任务子集来分割长文本生成任务,实现了生成多样化表达的效果,相较于现有神经方法更为出色。