语言模型是否对未来的标记进行计划?
利用隐藏状态向量进行预测模型,使用线性逼近和因果干预方法对 GPT-J-6B 网络中的隐藏状态进行评估,发现某些层的单一隐藏状态可以以超过 48% 的准确率近似模型输出,并提出了 “未来镜头” 可视化方法来呈现 Transformer 状态。
Nov, 2023
通过分析 Transformer 中的前向模块,研究表明其可以被视为一系列键值记忆,提出了关于多语言模型中神经元对不同语言的响应不平等的假设,并通过实验证实了此假设。
Oct, 2023
使用一个可学习的 “暂停” 标记和推迟提取模型输出的方法,我们在语言模型上执行训练和推理,并观察到模型在预训练和微调过程中实现了推理时间延迟的增益,这对各种推理、问答和基本理解任务都有积极的影响,进一步将延迟下一个标记预测的方法应用于各种应用场景可能引发更多概念性和实践性的未来研究问题。
Oct, 2023
本文介绍了一种新颖的基于 Transformer 的自回归架构,通过根据某些提议分布外推过去的多个连续部分来估计下一个令牌的分布,并关注这些扩展字符串,以改进自回归模型的性能。
May, 2023
通过研究一种合成任务中的自回归 Transformer 模型,我们揭示了逐步推理的机制,并发现了在该任务中观察到的几个现象:(i)逐步推理推理间隔;(ii)模型生成中多样性与准确性之间的权衡;(iii)模型输出的简洁偏见;以及(iv)上下文示例中的组合概括和原位偏见。这项工作引入了一个基于合成框架的研究逐步推理,并提供了可奠定对该现象更深入理解基础的机制性假设。
Feb, 2024
理解 Transformer-based 语言模型是深度学习社区的一个关键目标,最近的可解释性方法在前向通道的权重和隐藏状态上帮助发现信息在模型中的流动,本研究将这种方法扩展到后向通道和梯度,证明了梯度矩阵可以被看作是前向和后向通道输入的低秩线性组合,并开发了投影这些梯度到词汇项的方法,探索了如何在语言模型的神经元中存储新信息的机制。
Feb, 2024
研究表明,Transformer-XL 语言模型在预测超出其训练期的未来话语时,性能会随着时间的推移而逐渐降低。基于此,提出了动态语言建模的思路,并通过不断更新知识来缓解性能退化问题。因此,应重新思考我们目前培训和评估语言模型的方法,并发展出适应我们日益变化和非稳定的世界的自适应语言模型。
Feb, 2021
本文研究了预训练模型在通用语言中层次化句法功能的作用,通过诊断语法转换任务来诊断预训练参数的归纳偏差,结果表明,模型深度对于层次化泛化具有更大的作用,同时,在训练规模方面,使用适当的语料库预训练可以提高效率。
May, 2023
本文提出了一种基于预训练生成式 transformer 网络的方法 Future Sight,以实现未来条件限制的故事生成任务,在保留自注意机制的同时,增加了对未来情节的建模,使生成内容更有逻辑性和连贯性。
Dec, 2022