关键词sequence to sequence models
搜索结果 - 15
- 一种基于深度知识学习的风速预测新方法
提出了一种基于深度知识的学习方法,该方法使用预训练方法和自编码器结构来提高数据表示和建模,以预测风电的风速和功率。
- 编码器 - 解码器模型的秩一编辑
本研究在 Encoder-Decoder transformer 模型中提出了 4 种编辑任务,并展示了这种直接干预方法的高效性,只需一个有效实例就能修复错误的负面模型行为。
- 预测式以物为中心的过程监控
本论文介绍了如何利用 “Object-Centric Event Log” 和 “Generative Adversarial Networks (GAN) 、长短时记忆 (LSTM)、序列到序列模型 (Seq2seq)” 来实现流程预测, - 使用分层学习生成长源序列
本研究设计并研究了一种新的分层注意力 Transformer 架构(HAT),在几个序列到序列任务中优于标准 Transformer,包括在 PubMed、arXiv、CNN/DM、SAMSum 和 AMI 上的四个摘要任务中取得了最新的 - ACL随机加权编码器在摘要任务中的出色表现
本文考察了未经训练的随机初始化编码器在一般的序列到序列模型中的性能,以及在抽象概括任务中与完全训练过的编码器的性能进行了比较。结果表明,未经训练的随机初始化编码器的架构在性能方面与完全训练过的编码器的等效架构相媲美。同时,编码器的容量不仅改 - AAAI基于概念学习的对话建模:蒙面和关注
本文介绍一种通过无监督学习的方式,学习上下文中的关键概念并根据其生成回复,从而在对话建模中取得显著进展。运用的模型被称为 Mask&Focus,并通过对输入进行掩码和观察响应生成效果的方式实现对上下文概念的自动化学习,从而指导模型关注所述概 - WWW不解析,生成!一种用于面向任务的语义解析的序列到序列架构
本文提出了一种基于序列到序列模型和指针生成网络的统一架构,旨在处理既能识别简单 Action 单一的查询,也能处理更复杂的分段实体的查询,并在 ATIS、SNIPS 和 Facebook TOP 数据集上取得了最先进的准确率,不需要对语义分 - EMNLP神经机器翻译的简单而有效的噪声信道建模
本文探讨了基于标准序列到序列模型的神经嘈杂信道建模方法,实验结果表明这种方法在四个语言对的翻译任务中表现优异,尤其在 WMT'17 的德英翻译任务中,其 BLEU 分数比直接模型高出 3.2 分。
- ACL神经网络中组合性实现
本文详细比较了两种序列模型在试图解决合成任务时的差别,通过更多的监督信号,辅助注意机制,参数空间和隐藏层激活机制的不同,发现具有引导性的网络在识别更组合解决方案方面具有更高的效率,并且展现出更加模块化的神经元特点。
- ACL预训练语言模型表示用于语言生成
本文研究了将预训练的语言模型表征集成到序列到序列模型中的不同策略,并将其应用于神经机器翻译和抽象摘要。实验证明,加入编码器网络的预训练表示是最有效的,可以在减慢推理速度仅 14%的情况下获得高达 5.3 BLEU 的增益,并且即使有数百万个 - 基于序列到序列深度学习的心电图心跳分类技术实现心律失常检测
使用深度卷积神经网络和序列到序列模型,提出了一种自动心跳分类方法来解决心律失常分类中出现的问题,并在 MIT-BIH 心律失常数据库上进行了评估、分析和测试,结果显示该方法在文献中具有最佳性能。
- 序列学习的最优完成蒸馏
Optimal Completion Distillation 使用动态规划算法为序列模型优化训练,通过最小化编辑距离提高了其末端语音识别的表现。
- NIPS实现任务导向对话的流畅性和连贯性
本论文研究了如何在实际的客服对话场景中,生成自然流畅的语言回应和正确的外部操作指令,使用了序列到序列模型并采用了近邻基于嵌入空间的方法,在确保对话连贯性、生成准确的外部操作指令的同时,显著提高了回应的流利程度和准确性。
- KDD通过生成问题和答案对自动化阅读理解
本文提出一种基于神经网络的两阶段机制来生成问题 - 答案对,第一阶段采用 Pointer Networks 编码句子中的关键答案,第二阶段采用序列到序列模型生成问题,最终采用全局注意力和答案编码生成最相关的问题。实验结果表明我们的方法在生成 - EMNLP无监督预训练用于序列到序列学习
本文提出了一种通用的无监督学习方法,用于改善序列到序列模型(seq2seq)的准确性;其主要是通过使用两个语言模型的预训练权重对 seq2seq 模型的 encoder 和 decoder 进行初始化,并使用标记数据进行微调,最后将其应用于