GPU 上的 LTL 学习
本论文提出了一种新的算法来解决线性时间逻辑(LTL)公式学习问题,可以构建比之前更大的公式,并且可实现任意时刻输出结果,性能较好。通过开源实现和公开基准测试来评估算法性能。
Oct, 2021
本文探讨了神经符号计算中的两个基本问题:深度学习是否能够端到端地解决逻辑中的挑战性问题,以及神经网络是否能够学习逻辑的语义。研究重点是线性时间暂态逻辑(LTL),通过训练 Transformer 来直接预测给定 LTL 公式的解,使用传统求解器产生的经典解决方案生成训练数据,研究表明,使用这些特定的解决方案进行训练已足够。 Transformers 甚至可以预测在文献基准测试中,经典求解器超时的公式的解,它也可以推广到逻辑的语义,虽然与经典求解器找到的解有所不同,但仍可以正确地预测大多数公式的解。
Mar, 2020
该论文提出了两种学习 Linear Temporal Logic(LTL)公式的新算法,该算法通过将学习任务简化为命题布尔逻辑中的一系列可满足问题来实现,并且验证了这两种算法在合成基准测试和领导者选举协议的执行理解方面的优异表现。
Jun, 2018
本论文研究了在多任务环境下,通过使用线性时间逻辑(LTL),结合深度强化学习(RL)实现对代理人进行指令跟随的教学。为了提高效率,论文提出了一种与特定环境无关的 LTL 预训练方案,并在离散及连续领域实验中展示了该方法的优越性。
Feb, 2021
本文提出了一种基于 Satisfiability Modulo Theories 的 Linear Temporal Logic 语言 ——LTLf Modulo Theories,该语言具有高表现力,可用于数据感知过程和规划的模型检验。我们提供了一种基于 SMT 编码的单遍树状表格系统的 LTLfMT 的半决策过程,并在黑色可满足检查工具中实现。实验结果表明了该算法在新型基准测试上的可行性。
Apr, 2022
从样例中学习线性时间逻辑(LTL)公式的问题的计算复杂性进行了研究,发现 LTL 学习问题在全逻辑和几乎所有的片段中都是 NP 完全的。这激发了寻找高效启发式算法的动力,并突显了以简洁的自然语言表达分离性质的复杂性。
Dec, 2023
本文提出了一种基于定理证明的方法,在神经网络的训练中规范和生成时间逻辑约束。通过 Isabelle 定理证明器的高阶逻辑,形式化嵌入线性时间逻辑,提出了一个损失函数,并使用 OCaml 版本制作的 PyTorch 模型进行了训练。结果表明,该算法在动态运动中达到预期效果,且避免了直接在 Python 这种编程语言中实现逻辑方面带来的许多风险。
Jul, 2022
本文提出一种基于学习的方法,通过算法生成 LTL 公式,并将其转换为结构化英语进而利用现代大型语言模型的改写功能来合成自然语言命令,从而减少人工数据依赖,以 75%的准确率将自然语言命令翻译成 LTL 规范,并发现该翻译的公式能够用于长视距的,多阶段任务的规划(以 12D 四旋翼为例)。
Mar, 2023
我们提出了一种基于图表示学习的模型检测框架,通过学习系统和规范的图结构表示,将模型检测问题转化为二分类问题,实验证明该方法在两种模型检测场景下取得了令人满意的准确性和速度提升。
Aug, 2023