电路变压器:通过预测下一个门实现端到端电路设计
研究人员通过深入研究语言模型的计算图,发现知识电路在表达特定知识方面起到了重要作用。他们还评估了当前知识编辑技术对这些知识电路的影响,并利用知识电路分析和解释语言模型的行为。这些研究为我们理解 Transformer 的工作原理以及指导知识编辑的改进设计提供了深入的见解。
May, 2024
通过对序列相似性任务的电路分析与比较,我们揭示了语义相关的序列依赖于具有类似角色的共享电路子图,并且共享计算结构的记录有助于更好地预测模型行为、识别错误和更安全的编辑过程,这对于构建更健壮、对齐和可解释的语言模型是一个关键步骤。
Nov, 2023
本文介绍了一种基于 Circuit Transformer 模型的逻辑综合重写操作符,通过将现有技术和 Circuit Transformer 相结合,解决了规模可扩展性问题,并在 IWLS 2023 竞赛基准上证明了提出的重写方法的有效性。
Jun, 2024
通过使用转码器,我们成功地将 MLP 子层训练为具有更宽、稀疏激活的 MLP 层,并在稀疏性、忠实度和人类可解释性方面至少与稀疏自编码器 (SAEs) 持平,进而通过 MLP 子层进行基于权重的电路分析,最终成功地解析出 GPT2-small 中的大于电路,并发现转码器在将包含 MLP 的模型计算分解为可解释电路方面具有良好效果。
Jun, 2024
本文介绍了一项新的研究成果,展示了当代语言模型具有电子电路设计技能的能力,类似于代码生成。研究人员引入了两个基准:评估模型知识电气元件的 Pins100 和评估模型设计常见微控制器电路和代码的 Micro25。其中包括六个案例研究,展示语言模型作为设计助手的应用,同时提出了一些研究挑战和发展方向建议。
May, 2023
使用数学和逻辑规范的框架构建的变压器模型经过全面验证,证明了通过插入已验证的任务模块可以提高使用语言模型的可验证性和可信度,减少复杂复合模型的验证工作量,并为语言模型的安全性迈出重要一步。
Feb, 2024
通过简洁明了的数学框架和清晰的图示,详细解释了神经语言模型的主要类型,包括 BERT 和 GPT2,同时讨论了在计算机视觉和时间序列应用中的转化及与自然语言处理的对比。
Jan, 2024
生成式机器学习方法如大型语言模型正在革新文本和图像的创作。本研究通过容错性量子计算的视角来调查变压器架构。通过将预训练的权重矩阵作为区块编码来构建变压器的查询、关键和值矩阵。我们展示了如何使用 Hadamard 乘积对自注意矩阵的行逐行应用 softmax 函数来准备区块编码。此外,我们结合了量子子程序来构建变压器中的重要构件,包括残余连接、层归一化和前馈神经网络。我们的子程序准备了变压器输出的振幅编码,可以进行测量以获得预测结果。我们讨论了获取量子优势的潜力和挑战。
Feb, 2024
本文探讨了神经符号计算中的两个基本问题:深度学习是否能够端到端地解决逻辑中的挑战性问题,以及神经网络是否能够学习逻辑的语义。研究重点是线性时间暂态逻辑(LTL),通过训练 Transformer 来直接预测给定 LTL 公式的解,使用传统求解器产生的经典解决方案生成训练数据,研究表明,使用这些特定的解决方案进行训练已足够。 Transformers 甚至可以预测在文献基准测试中,经典求解器超时的公式的解,它也可以推广到逻辑的语义,虽然与经典求解器找到的解有所不同,但仍可以正确地预测大多数公式的解。
Mar, 2020
本文提出了一种计算模型,将 Transformer-encoder 的基本组件 attention 和 feed-forward 计算映射到简单的原语中,并形成一种编程语言 RASP,用于编程解决可能由 Transformer 学习的任务,并演示了如何训练 Transformer 模仿 RASP 解决方案,并且利用该模型分析了所需图层和注意头数。
Jun, 2021