使用查询和反例从递归神经网络中提取自动机
使用回归方法进行等价查询的加权有限状态自动机(WFA)从循环神经网络(RNN)中提取的新算法实现了最近 Weiss、Goldberg 和 Yahav 的 DFA 提取方法的定量 / 加权扩展。
Apr, 2019
该研究介绍了一种从黑盒语言模型中提取概率确定有限自动机(PDFA)的算法,并在应用于循环神经网络(RNN)时,通常比从同一网络中提取加权有限自动机(WFA)的谱提取法实现更好的单词错误率(WER)和标准化分布累计收益(NDCG)。
Oct, 2019
本文提出了解决 RNN 的状态转移抽取中过稀疏问题的新方法,包括用经验方法补充缺失规则、调整转移矩阵以加强上下文感知、以及数据增强策略以跟踪目标 RNN 的更多动态行为。研究结果表明,我们的方法能够以更好的精度从 RNN 中提取加权有限自动机,特别适用于自然语言处理模型。
Jun, 2022
通过训练循环神经网络(RNN)来学习识别正则形式语言时使用的内部表示,我们研究了一个简单的解码函数,其将该 RNN 的状态映射到该语言的最小确定性有限自动机(MDFA)的状态,进而探讨了 RNN 内部表示与有限状态自动机之间的强结构关系,解释了 RNN 识别正式语法结构的能力。
Feb, 2019
我们提出了一种专门为 Transformer 模型设计的自动机提取算法,通过对 Transformer 模型的内部潜在表示进行转换过程的跟踪并使用经典的教学方法来将其解释为确定有限状态自动机(DFA),揭示了 Transformer 模型如何理解形式语言的结构,从而增强了 Transformer 模型的可解释性并深入了解了机器学习系统如何处理形式语言。
Jun, 2024
本文提出了一种基于加权有限自动机的自然语言任务的提取和解释框架来解决现有方法在可伸缩性或精度方面的局限性,同时引入了两种数据增强策略来跟踪循环神经网络的动态行为,并通过 Transition Matrix Embeddings 的基于任务的解释方法在预训练和敌对示例生成等应用中表现出更好的效果。
Jun, 2023
我们提出了一种计数奖励自动机 —— 一种能够模拟任何能以形式语言表示的奖励函数的有限状态机变体。与以前的方法不同,这些方法仅能表达任务为正则语言,而我们的框架允许通过无限制语法来描述任务。我们证明了一个配备这样抽象机器的代理能够解决比使用当前方法更多的任务。我们展示了这种表达能力的增加并不需要增加自动机的复杂性。我们提出了一系列利用自动机结构来提高样本效率的学习算法。我们展示了我们的方法在样本效率、自动机复杂性和任务完成方面优于竞争方法的实证结果。
Dec, 2023
本文介绍了一种名为 RetoMaton 的检索自动机,它可以在测试时间对检索的时间成本进行近似处理,从而构建了一个基于加权有限自动机的数据存储库,通过在推理时间与 LM 推理并行遍历自动机,可以将其困惑度降低高达 1.85,或节省高达 83% 的最近邻搜索,而不会降低推理的准确性。
Jan, 2022
本文利用定时自动机来介绍一系列监督学习任务,建立在隐藏时间变量和复杂性直接可控的行为模型基础上,通过研究倒置的时间特征,证明基于动态系统理论的工具可以不仅提供模型学习方案的见解而且能够证明训练过程的动力学。
Jun, 2023
本研究旨在探讨不同复杂度的 Tomita 文法上,从常用的循环神经网络中提取确定有限状态自动机的性能表现。研究结果表明,随着底层文法复杂度的提高,大多数循环神经网络的提取性能逐渐降低。
Jan, 2018