从 Transformer 中提取有限状态机
本文提出了解决 RNN 的状态转移抽取中过稀疏问题的新方法,包括用经验方法补充缺失规则、调整转移矩阵以加强上下文感知、以及数据增强策略以跟踪目标 RNN 的更多动态行为。研究结果表明,我们的方法能够以更好的精度从 RNN 中提取加权有限自动机,特别适用于自然语言处理模型。
Jun, 2022
本文提出了一种基于加权有限自动机的自然语言任务的提取和解释框架来解决现有方法在可伸缩性或精度方面的局限性,同时引入了两种数据增强策略来跟踪循环神经网络的动态行为,并通过 Transition Matrix Embeddings 的基于任务的解释方法在预训练和敌对示例生成等应用中表现出更好的效果。
Jun, 2023
本研究旨在探讨不同复杂度的 Tomita 文法上,从常用的循环神经网络中提取确定有限状态自动机的性能表现。研究结果表明,随着底层文法复杂度的提高,大多数循环神经网络的提取性能逐渐降低。
Jan, 2018
通过训练循环神经网络(RNN)来学习识别正则形式语言时使用的内部表示,我们研究了一个简单的解码函数,其将该 RNN 的状态映射到该语言的最小确定性有限自动机(MDFA)的状态,进而探讨了 RNN 内部表示与有限状态自动机之间的强结构关系,解释了 RNN 识别正式语法结构的能力。
Feb, 2019
通过将 Transformer 模块与强化学习相结合,开发了一个基于二次 Transformer 引导的时间逻辑框架(T2TL),以学习并执行各种自适应控制任务。其采用的 LTL 指令通过 co-safe LTL 指定,可以将复杂任务分解为可学习的子目标,从而将非马尔可夫奖励决策过程转换为马尔可夫过程,并通过同时学习多个子任务来提高采样效率。
Sep, 2022
本文系统研究了 Transformers 模型在模拟正则语言和反计数语言中的能力,并探讨了其中各组件的作用,发现相比于 LSTMs,在某些行为建模上有一定优势,同时也揭示了自我注意机制和位置编码对模型学习和泛化能力的影响。
Sep, 2020
本文提出了一种新算法,利用精确学习和抽象来提取描述给定训练 RNN 状态动态的确定性有限自动机,使用 Angluin 的 L * 算法作为学习器和训练 RNN 作为 oracle,即使状态向量较大且需要进行精细区分,该技术也可以高效地从训练 RNN 中提取准确的自动机。
Nov, 2017
该论文提出了一种从代理环境经验中学习非马尔可夫任务规范的新方法,可以将任务拆分为其构成子任务,提高了 RL 代理后续合成最优策略的速率,并提供了一个可解释的编码高级环境和任务特征的方式。
Aug, 2022
通过标准的基于梯度的训练,我们展示了 transformers 模型能够模拟加权有限自动机和加权树自动机的推理能力,并在理论上证明了这些结果以及所需的 transformer 模型大小与目标自动机状态数的关系。
Mar, 2024
本文介绍的一种采用编程语言设计的可调试 Transformer 程序可以替代机器学习传统编写的 Transformers 来解决一系列算法问题和 NLP 任务。
Jun, 2023