- CVPR基于序列生成的统一场景文本识别
提出一种名为 UNITS 的统一文本识别模型,该模型能够检测任意形状的文本,并利用起始点提示技术从任意起始点提取文本,相较于现有技术表现更具竞争力。
- 学习模拟编辑过程
本文提出了一种通过多步编辑的方式,建立生成序列的生成模型,以及训练该模型的神经网络,并基于多步编辑提出了基础结果和度量标准。实验结果表明,所提出的模型在相关下游任务上的表现优于以往单步编辑模型的表现。
- 对话响应生成的局部解释
该论文探讨在文本生成任务中模型自主的解释问题,提出了一种新方法 —— 文本生成的局部解释,并表明该方法可以有效地提取输入和输出之间的显式和隐式关系。
- EMNLPTeaForN:基于 N-gram 模型的教师强制算法
通过使用一种名为 TeaForN 的方法,我们可以在不改变现有标准老师强制模型框架的情况下,通过使用 N 个解码器在一个辅助时间轴上进行编码,从而降低暴露偏差和差分难度,从而提高序列生成模型的生成质量。
- ICLR上下文类别序列生成的自适应相关蒙特卡罗方法
该研究提出了一种针对分类序列生成的策略梯度估计器 —— 基于相关性蒙特卡洛树的滚动策略梯度估计器,该方法通过生成一组相关的蒙特卡洛树来控制方差,从而有效地降低了梯度方差,同时可以缩短大词汇场景下分类的生成成本。
- 检索与精炼:用于对话的改进序列生成模型
本研究发展了一种融合了两种不同方法的模型,能够检索出机器人回答,并将其作为附加语境进行精细调节,从而产生了更准确、更生动、更吸引人的回答。在最近的 CONVAI2 挑战评估中,该模型在人类评估中明显优于传统的检索和生成模型。
- 使用 Softmax 策略梯度的冷启动强化学习
本文提出了一种基于 softmax 价值函数的强化学习方法,它不需要 warm-start 和样本方差的降低,结合了 policy-gradient 方法和最大似然方法的优点,用于训练结构化输出预测问题的序列生成模型,经实验证明,在文本自动 - 神经机器翻译的后期最小贝叶斯风险解码
本研究提出使用最小贝叶斯风险编解码技术 (MBR) 来消除基于 beam search 算法的模型自信度导致的输出错误,并使用 GPU 批量计算贝叶斯风险值以加速解码,并在机器翻译中验证后期 MBR 解码的优越性。
- ICLR神经序列模型中的多语言图像描述
通过神经机器翻译和神经图像描述相结合的方法,在多语言图像描述任务中使用序列生成模型作为研究方法,我们发现相较于只针对单个语言的模型,使用多语言训练的模型在英语和德语对齐的 IAPR-TC12 数据集上的 BLEU4 和 Meteor 分数显