Marabou 2.0: 一个多功能的神经网络形式分析工具
深度神经网络验证技术的验证进展为 DNN 验证器的广泛应用开辟了道路,提出了在 Marabou DNN 验证器的基础上以 Imandra 为实现语言进行形式保证的 Marabou 证明检查算法的替代实现。
May, 2024
本研究提出了一种通过使用过度逼近来减小神经网络规模,以提高神经网络验证技术的框架,并使用反例引导调整逼近,以验证大型神经网络。实验证明,该方法对验证大型神经网络具有很大的潜力。
Oct, 2019
EMNLP 2018 BlackboxNLP Workshop reviewed techniques to analyze and understand neural models of language, including manipulating inputs, decoding intermediate representations, modifying network architectures, and examining performance on simplified or formal languages.
Apr, 2019
本文提出一种基于混合整数线性规划的框架,首次在电力系统应用中验证神经网络行为,能够确定神经网络分类为安全或不安全的输入范围,并且能够系统地识别对抗性示例,从而提高神经网络在电力系统中的鲁棒性和可靠性。
Oct, 2019
该研究介绍了语义特征作为一种完全可解释的神经网络层的概念框架,并提出了一个证明概念模型,解决了 MNIST 相关子问题,该模型由 4 个这样的层组成,具有 4.8K 个可学习参数,模型易于解释,在没有任何形式的对抗训练的情况下,实现了与人类级别的对抗测试准确性,需要很少的超参数调整,并且可以在单个 CPU 上快速训练,该技术具有通用性,有望实现对完全可推广的白盒神经网络的范式转变。
Mar, 2024
本文提出了一种用于验证神经网络鲁棒性的新算法 Charon,并通过实验评估其在数百个基准测试中显著优于 AI^2,Reluplex 和 Reluval 等三种最先进的工具。
Apr, 2019
提出 L'AMBRE 用于评估多语言文本生成系统的形态句法良好性度量,并通过自动提取多种形态句法规则和训练鲁棒解析器解决文本生成系统的问题,并证明了该度量在机器翻译任务中的有效性。
Mar, 2021
研究采用 Refactor 模型提出了一种新的文本摘要和摘要组合的统一框架,实现了在不同应用场景中的综合评估,并显着提高了在 CNN / DailyMail 数据集上的性能表现。
Apr, 2021
本文探讨了语言图表示在理论上能否 complement 并提高神经语言建模的能力。通过集成一个预训练的 Transformer 和七种不同形式主义的 ground-truth 图,研究发现,总体而言,语义组成结构对于语言建模的性能最有用,超越了句法组成结构以及句法和语义依存关系结构。此外,这种效应在不同的词性类别中差异很大。总之,我们的研究结果为神经符号语言建模带来了有前途的倾向,并邀请未来研究 quantifying 不同形式主义所做的设计选择。
Dec, 2021