本研究旨在探讨不同复杂度的 Tomita 文法上,从常用的循环神经网络中提取确定有限状态自动机的性能表现。研究结果表明,随着底层文法复杂度的提高,大多数循环神经网络的提取性能逐渐降低。
Jan, 2018
通过系统性文献综述,本文着重于规则提取作为神经网络可解释性的手段,发现了二十多年来使用于浅层神经网络的各种规则提取方法,并对深度学习模型提出的挑战进行了探索,为对这一领域感兴趣的研究人员提供了全面的介绍。
Dec, 2023
本文提出了一种新方法,通过追踪给定输出对 LSTM 的给定输入的重要性来识别一致重要的单词模式,从而将其简化为一组代表性短语,并基于这些短语构造了一个简单的基于规则的分类器,从而近似于 LSTM 在情感分析和问题回答上的输出。
Feb, 2017
本文介绍了一种名为 NN2Rules 的算法,用于将经过训练的神经网络转换成规则列表。通过该方法提取的决策规则与神经元行为类型(如 sigmoid 激活函数或 ReLU 函数)无关,且提取出的规则对任意输入都有与原神经网络相同的预测准确性。
Jul, 2022
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本研究介绍了递归神经网络语法与其使用的高效推理过程,分别应用于句法分析和语言模型,实验结果表明在英文的句法分析和英汉语言模型方面,其效果均优于所有以前发表的有监督生成模型和最先进的序列 RNNs。
Feb, 2016
这篇论文提出了一种深度学习和逻辑规则相结合的通用框架,能够将逻辑规则的结构信息转移至神经网络的权重中,有效地提高了 CNN 和 RNN 的性能,适用于情感分析和命名实体识别等多个领域。
Mar, 2016
本文研究了基于循环神经网络(RNN)的提及检测系统的鲁棒性及其在信息提取中的应用,表明在英语的普通或跨领域的情况下,RNNs 不仅在通用情况下优于之前报告的最佳系统(最多可达 9%的相对错误降低),而且在荷兰语中表现出的命名实体识别相似任务中,RNNs 比传统方法显著优越(最多可达 22%的相对错误降低)。
本文提出了一种基于循环神经网络的简单框架,并将其与基于卷积神经网络的模型进行比较。该模型在处理句子关系分类问题时具有学习长距离依赖关系模式的优点,并在使用 MIMLRE 数据集的实验中表现出优异的性能。
Aug, 2015
本文利用动态系统分析工具来反向工程文本情感分类的循环神经网络,证明训练过的循环神经网络可以收敛到高度可解释、低维表示的固定点,并揭示循环神经网络内部存在近似线吸引子的机制以量化的方式解释循环神经网络完成情感分析任务的过程。此外,该机制在多个数据集和不同架构下仍然存在,呈现出令人惊讶的通用性和可解释性。
Jun, 2019