提出了一种非自回归解码框架用于图片描述,该框架使用位置对齐和推理策略来指导更进一步的句子生成,实验结果表明此模型相对于自回归模型有显著的加速效果,并且相较于 NA 模型有更好的表现。
Dec, 2019
本文提出了一种非自回归解码的模型,使用基于双向自注意力的语言模型来加速推理,生成视频字幕的过程分为两个阶段,通过迭代的修改,得到高质量的细致视频描述,大量实验表明该方法达到了最先进的性能,并获得了高推理效率。
Nov, 2019
本文提出了一种 Non-Autoregressive Image Captioning(NAIC)模型,采用一种新的训练范式:Counterfactuals-critical Multi-Agent Learning(CMAL),将其制定为多智能体强化学习系统,经过对大规模未标记图像的实验表明,该模型实现了与最先进的自回归模型可比的性能,同时速度提高了 13.9 倍。
May, 2020
该研究提出了一种新的两阶段模型,称为半自回归图像字幕生成模型,使用部分先验信息和图像特征,先以自回归方式生成一个间歇性序列,然后使用迭代的非自回归方式填充所有跳过的单词,可以更好地权衡性能和速度,并在 MS COCO 基准测试上得到更好的表现和竞争性推理加速。
Oct, 2021
本文介绍了一种利用掩码语言建模来训练非自回归机器翻译模型的方法,并通过对多个数据集的实验验证,证明该方法在翻译质量和速度方面都优于现有的非自回归翻译模型,并且接近于左到右的变换器模型。
Apr, 2019
通过引入双向注意力机制、并行解码框架和掩码序列建模方法,设计了一种名为 MAD 的多任务视觉通用模型,用于统一各种视觉任务,实验证明 MAD 在性能和推理效率方面优于自回归模型,并在与任务专用模型相比获得竞争力的准确性。
Mar, 2024
非自回归模型在生成图像时具有高效生成大量图像标记、低推理延迟等特点,与自回归模型相比,其参数规模为 346M,使用一台 V100 GPU 在 1 秒内生成了一张 256×256 像素的高质量图像。
Dec, 2023
该研究提出了一种新的训练方法 SMART,通过模仿 mask-predict 的半自回归行为,使得训练样本包含模型预测作为输入,以进一步提高使用 mask-predict 解码的翻译质量,有效缩小了半自回归和全自回归模型之间的性能差距。
Jan, 2020
本研究发现,在编码器足够深的情况下,单层自回归解码器可以显著地优于拥有相似推理速度的强大非自回归模型,并认为自回归基准与非自回归方法之间的速度劣势在某些方面被高估,这些结果为未来研究快速且准确的机器翻译建立了新的协议。
Jun, 2020
非自回归序列模型为了减少推理时间,通常会假定每个单词的生成过程彼此独立,但这会导致结果不一致。本文提出了一种结构化推理模块,使用高效的 CRF 近似算法来建模动态转换技术,以提高翻译的一致性,并在不影响推理速度的前提下,显著提高了翻译性能。
Oct, 2019