关键词open-ended text generation
搜索结果 - 6
- 个性化故事评估学习
通过建立个性化故事评估模型 PERSE,该研究拟解决大语言模型在开放式文本生成方面评估表现困难的问题,并通过两个新数据集 Per-MPST 和 Per-DOC 进行实验,研究结果表明该模型在故事评分和优先级预测方面均优于 GPT-4。
- 对比式搜索与对比式解码在开放式文本生成中的实证研究
本研究比较了两种最近提出的解码方法,即对比搜索(CS)和对比解码(CD),发现尽管 CS 在 MAUVE 指标上表现不佳,但在多样性和连贯性指标上大大超过 CD。人工评估显示,人类注释器普遍更喜欢 CS 而非 CD,MAUVE 与人工评估之 - ACL想象先行:引导式开放式文本生成
本文提出了 iNLG,这是一种使用机器生成的图像来指导语言模型进行开放式文本生成的方法。实验和分析证明 iNLG 在打开式文本生成任务(包括文本完成、故事生成和概念到文本的生成)中的有效性,包括少量数据和全部数据情况。无论是自动计量还是人类 - ACL面向开放式文本生成的事件转换规划
本文提出了一种新颖的两阶段方法 —— 事件转移规划和文本生成,可以在在开放式文本生成中明确地安排事件顺序,从而在生成的文本中改善一致性和多样性。
- 利用发散前沿测量神经文本与人类文本之间的差距的 MAUVE
介绍了 MAUVE 作为一种比较度量开放式文本生成的测量方法,通过分析信息的分布差异来判断机器生成文本与人类语言之间的距离,实验结果表明,MAUVE 可以有效评估生成文本质量,并与人类判断高度相关。
- 评估开放式语言生成中偏差的数据集和评估标准
该研究介绍了一个大规模数据集以及一个新的自动化度量方法,用于研究和评测深度学习技术所生成的自由文本中存在的社会偏见,并发现机器生成的大部分文本在五个领域中表现出比人类撰写的维基百科文本更大的社会偏见。