- Metasql: 自然语言到 SQL 的生成 - 排序框架
提出了 Metasql,这是一个统一的生成 - 排序框架,可以与现有的自然语言界面数据库(NLIDB)相结合,以提高其翻译准确性。Metasql 通过引入查询元数据来控制生成更好的 SQL 查询候选集,并使用学习排序算法检索全局优化的查询。 - Thutmose 标注器:用于反向文本规范化的单通神经模型
本文提出了一种基于单通词分类器模型的逆文本规范化方法,该方法通过在每个输入标记上分配替换片段或标记它们以进行复制或删除来执行此任务,并通过基于 ITN 实例的颗粒对齐的数据集准备方法来缓解网络模型的幻觉问题。此方法在英语和俄语测试集上均取得 - ICLR学习超优化现实世界程序
本文提出了一种使用神经序列到序列模型来学习超级优化现实世界程序的框架,并介绍了一种易于实现的方法(SILO)来增强优化,该方法在测试集上优化了 5.9%,超过了标准策略梯度方法和模型预训练的优化演示。
- ACL神经形态变化中的搜索错误探寻
该研究探讨了神经序列到序列模型在语言生成任务中的应用,发现在单词级任务中,准确推断这些模型会发现空字符串常常是全局最优解,但在形态学变化的情况下,空字符串几乎不是模型最可能的解,且贪婪搜索通常能找到全局最优解。这表明,许多神经模型的不良校准 - EMNLP语义标记实现组合泛化
在语义解析中,提出了一个新的解码框架,该框架保留了序列到序列模型的表现力和通用性,同时具有类似词典的对齐和解开信息处理,能够提高模型的组合泛化能力。
- EMNLP使用离散语义签名的不同生成
COD3S 是一种使用神经序列到序列模型生成语义多样句子的新方法,通过在本地敏感哈希(LSH)的语义句子代码上进行生成,提高了输出多样性,特别适用于因果生成任务。经过自动和人工评估,我们证明了使用我们的方法生成的响应具有改进的多样性而不降低 - ICLRIsarStep: 高层次数学推理的基准测试
本文提出了一种用于高级数学推理的数据集,研究了神经序列到序列模型的推理能力。实验结果表明,该任务具有挑战性,但神经模型能够捕捉到非平凡的数学推理,提出的分层 Transformer 的性能也好于基准 Transformer。
- AAAI序列复制编辑
本文针对神经序列到序列模型不能完全符合文本和代码编辑需求,提出了一种扩展模型,通过一次性在输出中复制整个输入来减少决策次数,并衍生一种新的训练目标和变种 beam search 算法来处理输出生成的多样性问题,在自然语言和源代码的一系列编辑 - 自适应调整 Transformer 网络:提高低资源机器翻译的速度、效率和性能
本文介绍的机器翻译模型基于 Transformer,通过自动调整网络架构和超参数来提高 BLEU 分数,其中引入了自动调整网络大小的正则化方法,能够在删除网络中的神经元的同时减少模型的参数数量。
- DeepCopy: 基于分层指针网络的有根据地生成响应模型
本文提出了一种基于指针生成网络的响应生成模型,通过加入外部知识以及对话上下文,模型能够在对话系统中生成更加准确、丰富、有趣的响应,并在 CONVAI2 数据集上与几种基准模型进行比较和评估。
- ACL基于 monotonic attention 的字符级转导的精确硬对齐
本文针对常见的字符级字符串转换任务,如字形到音素转换和形态变化,探讨单调性是否真的是这些任务中的有益归纳偏差,提出了一种强制严格单调性的硬注意力序列到序列模型,并结合动态规划精确计算所有单调位置对齐的边际化,取得了形态变化方面的最新成果。
- ACLSEQ^3: 可微分的序列到序列到序列自编码器用于无监督的抽象句子压缩
本文介绍了一种基于序列 - 序列 - 序列自编码器 (SEQ^3) 的神经网络模型用于非监督抽象句子压缩,利用预训练语言模型作为潜变量的先验,结合连续的松弛机制使模型可优化,避免了对平行文本摘要对的依赖,实现了在基准数据集上取得了诱人的结果 - Seq2Seq-Vis: 用于序列到序列模型的可视化调试工具
本文提出了一种视觉分析工具,通过交互式的方式使得我们可以了解神经序列到序列模型训练过程中学习到的模式和检测模型错误,并通过多个实际大规模序列 - to - 序列应用程序验证了该工具的实用性。
- ICML神经机器翻译中的不确定性分析
本研究提出了工具和度量方法来评估机器翻译模型中数据不确定性的捕捉,以及这种不确定性如何影响生成翻译的搜索策略。我们的结果表明,搜索功能表现出色,但模型往往在假设空间中分散了太多的概率质量。此外,我们还提出了评估模型校准的工具,并展示了如何轻 - EMNLP派生形态的范式完成
本研究应用神经序列到序列模型解决 NLP 中复杂词形派生问题,并介绍派生范式完成任务。基于优于非神经基准线 16.4% 的结果,我们的神经模型学会了各种派生模式。但是,由于派生性构词涉及语义、历史和词汇考虑,因此未来需要更多工作来实现和生成 - CoNLL-SIGMORPHON 2017 共享任务:52 种语言的通用形态还原
该研究以 CoNLL-SIGMORPHON 2017 共享任务为基础,使用监督型形态生成技术在 52 种语言上进行训练和测试,结果表明神经序列到序列模型能够在小训练数据集上取得高性能,但由于不同偏置和数据增强策略导致预测的屈折形式集合不一, - 利用指针生成网络进行摘要生成
本文提出了一种新的架构,通过使用混合指针生成网络和覆盖机制以增强标准的序列到序列注意模型来解决神经序列到序列模型不精确复制信息和重复问题,该模型在 CNN/Daily Mail 摘要任务上表现优异。
- 神经机器翻译和序列到序列模型:教程
本教程介绍了一组称为 “神经机器翻译” 或 “神经序列到序列模型” 的新而强大的技术,这些技术已被用于处理人类语言的许多任务,并可成为任何想要建模某种形式的连续数据的人员工具箱中的强大工具。教程假定读者了解数学和编程的基础知识,但不假定具有 - 序列对序列神经网络模型进行音译
本文介绍了使用神经序列到序列模型在现有数据集上达到最先进或接近最先进的结果,以转录为重点组件的机器翻译系统和软件国际化。为了使机器转录易于使用,我们开放了一个新的阿拉伯文到英文的转录数据集和我们训练的模型。