将解码算法视为多目标优化问题,旨在同时最大化回应质量和多样性。当多样性是一个优先考虑的因素时,所有方法表现相似,但当质量被视为更重要时,近期提出的核采样 (nucleus sampling) 优于所有其他评估的解码算法。在这一发现的基础上,我们设计并评估了一种名为 “选择性抽样” 的算法,该算法可以近似全局归一化温度抽样。
Apr, 2020
该论文提出了一种简单快速的解码算法,在神经生成过程中促进多样性,评估结果表明,多样性解码有助于各种任务,特别是在需要重新排名的任务中,并进一步提出了一种能够自动调整不同输入的多样性解码速率的变化,通过强化学习技术实现,观察到进一步的性能提升。
Nov, 2016
该研究对语言生成任务和解码策略之间的相互作用进行了全面分析,测量了生成文本属性随着解码策略和任务的变化情况,并使用人工和自动评估发现了之前观察到的和令人惊讶的结果,如语言生成中的多样性与质量之间的平衡是非常特定于任务的,而模式搜索方法如光束搜索在机器翻译中表现出色,但在故事生成中会导致不连贯和重复的文本。
Mar, 2022
提出一种名为 Diverse Beam Search (DBS) 的算法,以优化多样性目标解码出一系列多样化的输出,旨在解决 Beam Search 算法在复杂人工智能任务解码过程中无法准确捕捉复杂任务本质的问题,并在图像字幕生成、机器翻译和视觉问答生成等任务中取得更好的性能表现。
Oct, 2016
该研究通过全面而多方位的分析,评估了大型语言模型在各种任务、模型和部署环境下的解码方法的性能表现、对超参数变化的鲁棒性和解码速度,发现解码方法的性能与任务相关,并受到对齐、模型规模和量化等因素的影响。有趣的敏感性分析揭示了某些方法在广泛超参数调节的代价下实现了更优的性能,凸显了在不同环境中实现最优结果与实施实用性之间的权衡。
Feb, 2024
本研究提出了一种搜索算法,采用重构解码作为最佳优先搜索,并重新考虑了假设重组的想法,通过在搜索期间识别并合并相似的文本生成候选项,构建了许多多样化的文本生成选项,并在文本摘要和机器翻译上表现出很好的效果。
Dec, 2021
本文主要探究了条件循环语言建模方面的一些进展和应用,提出了一个新的非常并行化的解码策略,并在诸如注意力机制和深度神经网络的领域进行了广泛的评估。
May, 2016
通过在语言模型中引入优化问题的框架,我们提出了一种新的解码分布,该分布通过序列级能量函数定义多个度量标准来改善与人类文本的语义一致性,实验证明我们的方法在与人类文本的度量标准一致性和人类评估方面优于强基准模型。
Oct, 2023
大型语言模型在各种自然语言处理任务中展现出令人印象深刻的能力,但是自回归生成文本却非常耗时。提高速度的一个方法是进行猜测性解码,即由快速的草稿模型生成候选分段(一系列令牌),然后由目标模型并行验证。然而,候选标记的接受率受到模型、数据集和解码设置等多个因素的限制。本文提出了从草稿模型中采样多个候选分段,并将它们分批进行验证的方法。我们设计了高效的多候选验证算法,同时保持目标模型的分布。我们的方法在多个数据集和模型上都展现出显著的接受率改进,始终优于标准的猜测性解码。
Jan, 2024
我们研究了不同的模型架构、训练目标、超参数设置和解码过程对自动生成图像标题多样性的影响,结果显示简单解码方法结合低温度是产生多样且准确的标题集的一种竞争性和快速方法;使用强化学习的 CIDEr-based 奖励训练会损害生成器的多样性,不能通过调整解码参数来缓解。此外,我们提出了一个新的指标 AllSPICE,通过一个单一的值来评估一组标题的准确性和多样性。
Feb, 2020