RankGen: 使用大型排名模型改善文本生成
通过对三种自然语言生成任务的实证分析,提出了一种新的 NLG 后处理方法 PairReranker,并证明其能够显著提高性能及适用于 GPT-3。
Dec, 2022
本研究旨在重新审视信息检索的生成式框架,并比较其与基于语义相似性的判别式模型在答案选择任务上的表现。同时,还展示了非似然损失对信息检索的有效性。
Oct, 2020
通过使用预先训练的 GPT-2、BERT 和 Born-Again 模型来生成排名来避免标注排名,建立语言建模为排序任务的方法,并使用 $n$-gram 创建非概率性教师,证实我们可以将 $LMing$ 视为排序任务而不使用预先训练的 LM,并且在比较 KL-based KD 时通常通过统计显著性提高 perplexity。
Oct, 2021
KC-GenRe 是一种基于 LLMs 的知识约束生成重排序方法,用于知识图谱完成任务,通过生成的 LLMs 解决了匹配问题、排序问题和遗漏问题,并取得了优于以往方法的性能。
Mar, 2024
本研究提出了一个检索增强的框架,使用特征描述性词语作为 dense retriever,从无标注的语料库中创建训练数据,以便在与基于大型自然语言生成模型相比节省 70% 的时间内,取得优于最强基线 4.3% 的成绩。
May, 2023
本文介绍了一种使用双向文本和图形生成的深度强化学习方法,通过线性化图形,将图生成问题转化为序列到序列生成问题,我们通过一个广泛的实验,表明所提出的方法在 WebNLG+2020 和 TekGen 数据集上都表现优异,提高了 WebNLG+ 2020 的状态 - of-the-art 结果。
Aug, 2021
Re2G 利用神经检索和排名策略结合 BART 序列生成器,在零 - shot 填槽、问答、事实核查和对话等任务中取得了相对增益为 9% 至 34% 的较大提升,是目前 KILT 排行榜上最先进的模型。
Jul, 2022
通过对预训练序列到序列模型进行新的调整,使其能够用于文档排名任务,相比较于 BERT 等仅采用编码器预训练变压器架构的基于分类的排名方法,我们的方法在实验中展现出了更好的性能,并发现我们的方法在数据较少的情况下更能胜任。
Mar, 2020
本文提出了一种新颖的生成对抗网络 RankGAN,用于生成高质量的自然语言描述,其通过给定一个参考组来分析和排名一组人工编写和机器编写的句子,通过相对排名分数来评估数据集的质量以帮助学习更好的生成器,并使用策略梯度技术来优化 RankGAN。多个公共数据集的实验结果清楚地证明了所提出方案的有效性。
May, 2017
本文提出 JGR 算法作为一种新的联合训练机制,将生成器和排名器集成在一个单一的框架中,以解决现有方法中生成器和排名器分开训练的问题。JGR 算法利用一个混合目标优化生成器的训练,同时用对比损失训练排名器,并通过交替更新生成器和排名器来提高生成质量。在各种文本生成任务上对 JGR 进行评估,发现它在三个常见的生成场景以及四个公共数据集上超越了现有方法。
Jun, 2022