神经语言模型自然出现稀疏性
最近的研究工作提出了一种假设,即语言模型中的激活可以被建模为对应于输入文本特征的向量的稀疏线性组合。在这个假设下,这些工作旨在使用稀疏编码重构特征方向。我们开发了度量方法来评估这些稀疏编码技术的成功,并测试线性和稀疏假设的有效性。我们展示了我们的度量方法可以预测合成稀疏线性激活的稀疏水平,并可以区分稀疏线性数据和其他几种分布。我们使用我们的度量方法来测量几个语言模型中的稀疏水平。我们发现有证据表明语言模型的激活可以准确地被特征的稀疏线性组合所建模,这种情况比控制数据集要显著得多。我们还展示了模型的激活在第一层和最后一层似乎是最稀疏的。
Oct, 2023
通过对注意力机制中稀疏性的理论分析,揭示了注意力分数稀疏性的内在特性及其对计算效率的影响,并为优化大型语言模型的计算框架提供了一个理论检验,为更可扩展和高效的人工智能系统铺平了道路。
Apr, 2024
本文介绍了基于显式稀疏正则化和对术语权重的对数饱和效应的首位排序器,具有高度稀疏的表示,与最先进的密集和稀疏方法相比取得了有竞争力的结果,并探讨了效率和效果之间的平衡。
Jul, 2021
通过对参数进行稀疏化,结合稀疏激活在递归神经网络中的相乘作用,实现了对神经网络计算成本高效率的优化,可以应用于神经形态计算设备上,同时不牺牲任务性能。
Nov, 2023
本文通过引入稀疏表示的思想将 word embeddings 应用到 sentence embeddings 中,基于主题连贯性方法引入了一种新的、定量的自动化评估指标,并在电影对话数据集和 MS COCO 数据集的场景描述上观察到了 interpretability 的提高。
Sep, 2018
通过研究神经网络的活动稀疏性和参数稀疏性,探讨了在序列建模中将两者相结合的权重剪枝的效果,结果表明稀疏连接的基于事件的神经网络是有效和高效的序列建模模型。
May, 2024
本论文演示了一种使用稀疏性和数据流的端到端训练流程,用于对一个大型语言模型(13 亿 GPT)进行高效训练,能够成功训练出与稠密模型相同质量的结果,并获得 4.5 倍于基线的端到端加速。
Apr, 2023