关键词sequence-to-sequence learning
搜索结果 - 31
- EMNLP基于语义单元的膨胀卷积用于多标签文本分类
该研究提出了一种基于序列到序列学习的多标签文本分类模型,其使用了多级膨胀卷积和相应的混合注意机制来生成更高级的语义单元表示,并且有效地减少了维度和支持了接收域的指数级扩展。实验结果表明,该模型在数据集 RCV1-V2 和 Ren-CECps - 事件预测的序列到序列学习
本文提出了一种使用双向多层递归神经网络进行序列到序列学习的方法,以预测文本中前一句的事件描述。我们的方法在来自 WikiHow 和 DeScript 两个数据集中的 BLEU 得分方面显着优于先前的研究。由于 BLEU 得分不易解释为事件预 - 基于注意力编码器 - 解码器网络的视频摘要
本研究提出了一种名为 AVS 的新颖的基于注意力机制的编码器 - 解码器网络框架,该网络框架使用双向 LSTM 和注意力机制对原始视频帧进行编码和关键帧序列进行解码,实现对有监督视频摘要的问题的解决。经测试发现,该方法在 SumMe 和 T - 将问答与问题生成视为对偶任务
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
- ACL多源序列到序列学习中的注意策略
本研究提出了两种结合多源序列的注意力机制的方法,并在 WMT16 的多模态翻译和自动后编辑任务中进行了系统评估。结果表明,所提出的方法在两个任务上都取得了有竞争力的结果。
- CVPR弱监督密集型视频字幕生成
本文提出了一种基于弱监督信息的密集视频描述方法,通过词汇全卷积神经网络、亚模量最大化算法、序列到序列学习语言模型等技术,既可以生成信息丰富、多样化的密集字幕,也能大幅度领先于现有的单视频字幕生成方法。
- 使用多尺度深度卷积神经网络和下一步条件进行蛋白质二级结构预测
本研究通过深度学习技术,使卷积神经网络适应蛋白二级结构预测问题,达到了 70%的准确度,并尝试使用序列到序列学习和集合策略进一步提高精确度。
- 使用 RNN 编码器 - 解码器生成中国古典诗歌
采用 RNN 编码器 - 解码器模型,基于序列 - 序列学习方法,以话题词为输入生成四行句(即汉语诗歌绝句),系统能学习单句语义及行与行之间的语义相关性,并利用结构、韵律和音调模式生成古诗,且无需任何限制性模板,实验结果表明我们的系统优于其 - ACL将复制机制纳入序列生成式学习中
本研究提出了一种名为 CopyNet 的神经网络模型,集成了新的复制机制,可选择性地将输入序列中的子序列放置在输出序列的适当位置,对于文本摘要等任务表现更佳。
- IJCAI神经生成式问答
本文提出了一个名为 Neural Generative Question Answering(GENQA)的端到端神经网络模型,可以根据知识库中的事实生成简单问答问题的答案。通过对问题答案对的语料库进行训练,该模型可有效处理问题和答案的变化 - ICLR序列到序列学习的深度基于记忆的架构
DEEPMEMORY 是一种基于神经网络的序列到序列学习框架,采用非线性转换方法来将输入序列(比如中文句子)转换到目标输出序列(比如翻译成英文),其使用内存的堆叠层存储中间表示并进行读写操作来实现从一种表示到另一种表示的非线性转换,这种方法