有关自我关键序列训练中序列结束符的澄清请求
研究神经生成模型中扩展到未知序列长度的挑战,表征了一种常常被忽视的建模决策:通过使用特殊的序列结尾(EOS)词汇项来预测生成过程的结束,探讨了在测试时强制模型生成到正确序列长度的神谕设置,对比训练预测 EOS (+EOS) 神经网络与未训练 (-EOS) 神经网络的长度外推行为,发现 -EOS 显著优于 +EOS,能够在括号闭合任务中良好地外推到比训练时间长 10 倍的长度,以及在困难的 SCAN 数据集长度泛化任务中比 +EOS 实现了 40% 的提升。
Oct, 2020
研究隐式信息如何影响文本生成质量,并发现使用预训练语言模型 GPT2 可以通过在微调阶段学习生成段落结束符以获得更好的文本连续性,其在生成英语故事和中文文章方面实现了比较好的实验结果。
Apr, 2020
本研究通过自我批判的序列训练 (SCST) 优化了图像说明系统,采用强化学习的政策梯度方法直接训练系统,并使用 MSCOCO 测试指标,使性能显著提高,实现了针对端到端系统直接优化非可微分度量的目标。
Dec, 2016
本研究探究了基于 actor-critic 强化学习的图像标题生成模型的训练方法,通过计算每个 token 的优势和值实现直接优化语言质量指标,取得了在 MSCOCO 数据集上的最先进性能。
Jun, 2017
本文提出了一种基于损失函数和词错误率的奖励函数的增强学习方法 —— 自我关键序列训练 (SCST) 来解决自动语音识别中的若干问题,取得了 8.7% 和 7.8% 的词错误率相对改进。
Apr, 2022
本文研究了现有的 seq2seq 预训练模型中存在的问题,提出了一种基于编码器自监督学习的预训练策略 E2S2,并通过在多个自然语言理解和生成任务中的实验证明了其可行性及有效性。
May, 2022
该论文提出了一种新的任务,即句子识别,在传统的基于结束符的句子分割的基础上,设计了一种能够识别文本中句子单元和非句子单元的方法,实验显示其性能优于传统的句子分割方法。
Jan, 2023
该研究分析了一个基于注意力机制的序列到序列语音识别系统,提出了解决其预测过于自信和产生不完整转录的问题的实用解决方案,并在没有语言模型的情况下,其词错误率为 10.6%,与 trigram 语言模型一起达到了 6.7%的词错误率。
Dec, 2016
本文提出了一种注意变化、语义相关的序列正则化框架去加强模型对相关序列的监督,同时使用自适应校正强度模块来实现对样本困难度的更细粒度正则化,并在多项序列识别任务中达到先进水平的效果。
May, 2023
本文提出了一种基于有上下文的 LSTM 描述生成器和协同对抗网络鉴别器的图像描述生成方法,并比较了两种训练方法,结果表明 Self-critical Sequence Training 表现更好;同时,介绍了一种用于衡量生成模型的语义得分,构建了 OOC 数据集来检测生成器的泛化能力与语义相似度。
Apr, 2018