BriefGPT.xyz
Ask
alpha
关键词
linear attention-based large language model
搜索结果 - 1
TransNormer 模型参数适配至 1750 亿
我们提出了 TransNormerLLM,这是第一个基于线性注意力的大型语言模型(LLM),在准确性和效率方面均超过了传统的基于 softmax 注意力的模型。
PDF
a year ago
Prev
Next