本文研究证明可学习门控在循环神经网络中提供输入数据的时间转换几乎不变性的功能,从而为长期依赖性和参数初始化提供了新的可能性。
Mar, 2018
本研究提出了一种名为 HD-LSTM 的深度学习架构,该架构通过引入全息复合方法扩展了长短时记忆(LSTM)神经网络,来处理问题和答案之间的语义关系,并通过无需人工提取特征的端到端训练方式来优化参数。实验结果表明,HD-LSTM 在两个常用的问答数据集上表现出色,证实了全息复合方法优于神经张量层的有效性。
Jul, 2017
本文通过对门控单元激活值的 L1 正则化来解决基于注意力的 RNN 模型过拟合的问题,同时提高了模型的可解释性。实验证明,这种方法在多项任务中均有效,包含情感分析、释义识别和问答等。
Jun, 2015
通过引入知识图谱中边相关时间的相关性,利用关系图卷积网络(RGCN)来解决复杂时间问题类型并显著提高精度。
Oct, 2022
本文介绍了一种使用循环和卷积模型(gated convolution)将问题映射到其语义表示的方法,以实现在问答论坛中寻找相似问题并重用之前提供的答案。我们的模型相对于标准 IR 基线和各种神经网络模型(包括 CNN,LSTM 和 GRU)表现出显著优势。
Dec, 2015
本文提出使用基于 LSTM 简单统一的模型从文本中恢复不同类型的时间关系,通过依存路径提供输入,同时包括句内、句间和文档创作时间关系。运用双重检查技术,在分类中颠倒实体对,提高正例召回率并减少相反类之间的错误分类。最后,使用有效的剪枝算法在全局解决冲突。该方法在 QA-TempEval(SemEval2015 任务 5)上表现优于现有的方法。
Mar, 2017
本研究提出了一种新的 LSTM 训练方式,使得门控单元的输出更加容易解释,经过实证研究,发现通过将门控单元的输出值推向 0 或 1,可以更好地控制信息流,从而提高模型的泛化能力和压缩率。
Jun, 2018
本文提出了卷积神经网络来学习问题和回答句子的最佳表现形式,并使用成对匹配的关系信息进行编码,这使得神经网络可以更好地捕捉到问题和答案之间的交互作用,从而有效地提高了准确性。
Apr, 2016
该文提出了一种递归控制递归网络 (RCRN) 架构,利用递归网络学习递归门控函数,将其用于不同自然语言处理任务,结果表明 RCRN 在比双向 LSTM 和双向 LSTM 堆叠表现更好,具有代替双向 LSTM 堆叠的潜力。
Nov, 2018
本研究提出一种基于长短时记忆(LSTM)单元的循环神经网络语言模型(RNN-LM),有效地利用字符级和单词级输入,在预测英语文本中的下一个单词方面表现优异。
Jun, 2016