该论文提出了一种简单快速的解码算法,在神经生成过程中促进多样性,评估结果表明,多样性解码有助于各种任务,特别是在需要重新排名的任务中,并进一步提出了一种能够自动调整不同输入的多样性解码速率的变化,通过强化学习技术实现,观察到进一步的性能提升。
Nov, 2016
调查许多分歧解码策略,在不损失质量的前提下通过过量抽样生成候选序列,并在筛选后从候选列表中生成多样化的结果。
Jun, 2019
本文提出了一种新方法,MixDiversity,用于实现多样化机器翻译,通过利用混合训练引入的句子潜在空间中的线性关系,在解码时通过与训练语料库中不同的句子对进行线性插值,生成输入句子的不同翻译,并通过选择具有多样性的训练语料库句子对和相应调整每对的插值权重来进一步改善翻译的准确性和多样性。
Sep, 2021
将解码算法视为多目标优化问题,旨在同时最大化回应质量和多样性。当多样性是一个优先考虑的因素时,所有方法表现相似,但当质量被视为更重要时,近期提出的核采样 (nucleus sampling) 优于所有其他评估的解码算法。在这一发现的基础上,我们设计并评估了一种名为 “选择性抽样” 的算法,该算法可以近似全局归一化温度抽样。
Apr, 2020
本文介绍了一种基于相互信息最大化的神经机器翻译模型,该模型使用一种简单的重新排序方法和一种增加 N-best 列表多样性的解码算法,应用于 WMT 德英和法英任务中,该模型能够在标准 LSTM 和基于注意力的神经机器翻译体系结构上提供持续的性能提升。
Jan, 2016
我们提出了一种方法,通过在标记级别交替生成来教授多个大型语言模型(LLM)进行协作。我们将下一个标记由哪个 LLM 生成的决策建模为潜在变量。通过在潜在变量模型下优化训练集的边际似然,基础 LLM 自动学习何时生成自己,并在需要时调用其中一个 `` 助理 '' 语言模型进行生成,无需直接监督。解码过程中的标记级别协作允许以适应特定任务的方式融合每个模型的专长。我们的协作解码在跨领域设置中特别有用,其中广义的基础 LLM 学习调用领域专家模型。在指令遵循、领域特定问答和推理任务中,我们展示了联合系统的性能超过各个模型。通过对学习到的潜在决策进行定性分析,我们展示了使用我们方法训练的模型呈现了几种有趣的协作模式,例如模板填充。我们的代码可在此 URL 找到。
Mar, 2024
通过使用 RD(Relay Decoding)方法,将两个不同的大型语言模型连接起来,并利用少量的平行数据进行训练,我们成功地在机器翻译任务中取得了优越的结果。在 Multi30k 和 WikiMatrix 数据集上进行的实验结果验证了我们提出的方法的有效性。
May, 2024
本文介绍了一种基于集成学习的解码方法,该方法可以将不同的输入映射到单个输出序列,在多文档摘要生成等任务上取得了最先进的结果。
Jun, 2020
当前语言模型以概率分布逐词解码文本,本研究引入了自适应解码机制,使语言模型能够在生成过程中动态地确定合理的候选集。实验结果显示我们的方法在故事生成任务中实现了更高的 MAUVE 和多样性,同时保持了一定的连贯性,凸现了其优越性。
Feb, 2024
本文提出了一种基于闭环迭代一致优化的框架,将不同的预训练模型组合在一起,以零样本方式解决各种多模态问题,该框架通过生成器和评分器的迭代反馈,使模型之间通过沟通逐渐纠正错误,形成一致性,从而显著提高下游任务的性能。
Oct, 2022