- 学习一种意识到形式的日语句子表征
提出了一种针对日语句子的序列到序列模型来学习保留语言形式性的表示,同时引入了有关形式性的先验知识,在 Downstream 任务中也表现出很好的效果。
- 基于 Transformer 的地理编码
本文使用序列到序列的方法解决了从自由文本中预测地理位置的问题,通过训练 T5 encoder-decoder transformer 模型,基于地标数据进行自适应单元划分,获得了一个地理编码模型,其中的代码、数据集和模型检查点都是公开的。
- 建模标签语义提升活动识别
本论文提出了一个基于序列到序列的神经网络框架,以学习共享活动标签名称的语义,而不是将标签仅视为整数 ID,这有助于提高人类活动识别的性能。该方法将学习活动分解为学习共享标记,通过在七个基准人类活动识别数据集上的广泛实验表明其优于现有方法。
- 针对希伯来语自然语言处理的多语言序列到序列模型
使用序列生成结构的多语言模型能够更好的处理像希伯来语这样的形态丰富语言,从而提高希伯来语自然语言处理,与以往的编码器结构的预训练模型相比,取得了显著改善。
- 替换文本语言模型以进行风格转换
介绍了一种用于文本风格转换的序列到序列语言建模框架。该方法通过非自回归蒙版语言模型生成目标风格的新跨度,同时保持了自回归模型的灵活性和非自回归模型的准确性,以弥合句子级和单词级风格转换方法之间的差距。通过 RLM 的隐层表示进行风格 - 内 - 通过问题分解实现复杂阅读理解
提出了一种通过可训练的问题分解器将多跳阅读理解问题分解为多个子问题,再利用序列到序列的阅读理解模型预测答案的学习方法,能够使语言模型更好地理解复杂的、组合性的多跳问题,并在 DROP 数据集的一难子集上比基线模型分别提高了 7.2 / 6. - 自监督语音识别模型中避免过度思考
本文介绍了一种应用于 ASR 任务的早期退出策略(EE),借此解决自我监督学习模型在大规模任务中存在的推理速度慢和网络反应过度的问题,并提出了两种新的策略来优化性能和速度之间的平衡。
- ICLRDiffuSeq:使用扩散模型进行序列到序列的文本生成
通过使用 DiffuSeq,我们设计了一种扩散模型,可用于序列到序列文本生成任务,具有与预训练语言模型等六种基线相比甚至更好的性能和高多样性。我们还包括理论分析,揭示 DiffuSeq 和自回归 / 非自回归模型之间的连接,并展示了扩散模型 - Bayes 风险 CTC:序列到序列任务中可控制的 CTC 对齐
本文提出 Bayes risk CTC 模型来控制序列预测的对齐,并针对不同需求定制损失函数,实现预测路径优选。实验表明 BRCTC 模型能有效减少离线模型的推断成本并显著降低在线系统的整体延迟。
- 为什么自注意力在序列到序列问题中是自然的?来自对称性的视角
本文研究了 seq2seq 函数的正交等变性和嵌入空间中的自注意力结构对于序列到序列问题的作用,并发现其自注意力结构是表达目标函数的合适结构。
- 连续向量空间中的数学表达式的语义表示
本文介绍了一种在连续向量空间中表示数学表达式的方法,使用序列到序列架构的编码器生成向量表示,并比较了这种方法与自编码器的差异。最后,为了加快未来的项目,我们发布了一组等价的超越和代数表达式对的语料库。
- 神经符号递归机实现系统化推理
提出了一种基于 NSR 的神经符号递归机制,通过感知、语法解析和语义推理三个模块的联合学习来实现优越的系统化推广,并通过三个不同领域的基准测试取得了 state-of-the-art 的表现结果。
- 混合情感语音合成
本研究提出一种新的情感文本转语音框架,通过量化不同情绪之间的差异,训练模型并控制模型在运行时生成所需的情感混合,实现了语音情感合成研究中的情感混合模拟。
- 面向内容丰富的文本图像生成的自回归模型扩展
该研究提出了 Pathways Autoregressive Text-to-Image(Parti)模型,它是一个将文本转换为高保真度照片般的图像的模型,并支持包含复杂组合和世界知识的内容丰富的合成。
- EMNLPEdiT5:使用 T5 预热进行半自回归文本编辑
EdiT5 是一种新颖的半自回归文本编辑模型,可在比传统的序列到序列(seq2seq)模型更快地推理时,能够建模灵活的输入 - 输出转换。该模型将生成过程分解成三个子任务:标记、重新排序和插入。EdiT5 的性能比 T5 在低资源环境下更好 - 低数据环境下从对话中发现工作流程
我们引入一种新的问题形式 —— 工作流程发现,提出了序列到序列方法,从对话中提取工作流程,对 ABCD 数据集进行了评估,并表明使用条件策略的模型可以改善 WD 性能。
- AAAI序列到动作:由动作引导的序列生成进行语法错误更正
本文提出一种名为 Sequence-to-Action(S2A)的模型,可以联合输入源和目标句子,并在预测每个标记之前自动生成一个基于标记的动作序列,以提供更好的语法纠错性能。在英语和中文 GEC 任务的基准数据集上进行实验,证明我们的模型 - 通过语音链重建和自我转录改进半监督序列到序列自动语音识别的一致性训练
本文提出了一种改进的半监督序列到序列自动语音识别的一致性训练范式,利用音频链重构作为弱增强来生成高质量的伪标签,并证明了学生 ASR 模型产生的动态伪转录文本有助于一致性训练。实验结果显示,相对于监督基线,我们的改进范例在单说话者和多说话者 - ACL使用非自回归模型的文本编辑模仿学习课程
提出了一个框架以训练非自回归序列到序列模型进行编辑任务,在此过程中,原始输入序列被迭代地编辑以生成输出。通过两种策略解决了在机器翻译训练的模仿学习算法在编辑场景下导致的训练和推断之间不匹配问题,从而显著提高了英文编辑任务上的输出质量和输出复 - 关系抽取和分类的生成模型
本文介绍了一个名为 GREC 的关系抽取和分类的生成模型,采用序列生成任务对关系进行建模,并探索了各种编码表示方法,提出了负采样和解码缩放技术,可实现一次性从句子中提取所有关系三元组,从而在三个基准关系抽取数据集上取得了最新的表现,虽然一次