语言模型中数值属性的单调表示
通过调整数字的表示方式,使用 NumeroLogic 格式,我们为语言模型处理数字数据和执行算术运算的困难提供了解决方法,并改进了自然语言理解性能。
Mar, 2024
高层语义概念在大型语言模型的表示空间中按线性方式编码;本研究通过引入简单的潜在变量模型来研究这种线性表示的起源,并证明了下一个标记预测目标和梯度下降的隐式偏差共同促进了概念的线性表示。
Mar, 2024
本文探讨语言模型的语义知识,特别关注其是否基于语义单调性属性创建了语言环境类别,并且是否这些类别在语言模型中扮演类似于人类语言理解的作用,以否定极性项许可为案例研究。通过一系列试验,包括探针式诊断分类器、语言可接受性任务,以及一种新型的分类器排名方法,我们能够更深入地了解到这些模型所获得的语义概括。
May, 2021
该研究提出了一种方法来研究 Transformer 语言模型内部如何表示数字数据,并使用该方法分析了 ALBERT 语言模型系列。通过主成分分析(PCA),我们提取这些模型用于表示数字和序数的令牌的学习嵌入,PCA 结果显示不同大小、训练和初始化分开的 ALBERT 模型一致地学习使用变化最大的轴来表示各种数值概念的近似排序,数字及其文本对应部分分别在不同的簇中表示,但在 2D 空间中沿着相同的方向增长。我们的发现表明,纯粹用于建模文本的语言模型可以理解基本的数学概念,为与定量推理交叉的 NLP 应用开辟了新的发展路径。
Apr, 2024
本文研究大型语言模型(LLMs)是否能够准确地表示数字,并发现尽管缺少直接支持这些表示的神经电路,不同结构的 LLMs 中存在着类似于人类语言使用者的数字表示,这证明了使用行为基准理解 LLMs 的实用性,并为今后关于 LLMs 数字表示和它们的认知合理性的研究指出了方向。
May, 2023
本研究提出基于 DistilBERT、XLM 和 BERT 的多语言探究任务,探讨自然语言数字系统中数值数据的组合推理证据,并发现这些预训练模型嵌入中编码的信息足以支持合法性判断,但一般不适用于值比较。
Oct, 2020
通过在大量数据集上进行多任务训练,我们展示了数值推理可以注入到预训练的语言模型中,使性能得到显著提高。在一个简单通用的 encoder-decoder 架构上训练,我们的模型 GenBERT 在 DROP 数据集上的性能可以达到与同等规模的最先进模型相媲美,同时在数学单词问题数据集上保持高性能,这种方法为延展技能到大型预训练语言模型提供了一般的解决方案。
Apr, 2020
通过对 Large Language Models(LLMs)的实证分析,本文提出了一种新的端到端框架,能够解码 LLMs 中隐藏的事实知识,并使用时间性知识图表达其在各层中的演化,以实现对 LLMs 的机理解释。通过局部和全局的解释性分析,揭示了 LLMs 中存在的潜在错误和事实知识的演化模式,从而为 LLMs 的机理解释迈出了一步。
Apr, 2024
该研究调查了语言模型在计算预测和问题解决能力方面的应用,以及其在进行算术计算和内部信息处理方面的推广能力。通过使用二进制加法和乘法作为测试样本,该研究成功地训练了一个轻量级语言模型,并进行了一系列实验以探究其外推能力和内部信息处理过程。研究结果支持了该假设,即语言模型在适当的内部表示映射后,计算发生在数值空间中,其工作类似于一个编码 - 回归 - 解码机器。
Aug, 2023