BriefGPT.xyz
大模型
Ask
alpha
关键词
algorithmic speedup
搜索结果 - 1
基于 Transformer 模型的低秩自适应 (LoRA) 的计算限制
通过在梯度计算中寻找低秩分解,我们研究了基于变换器模型的低秩适应(LoRA)更新的计算极限,证明了算法加速的可能性,并通过控制 LoRA 更新的计算项,基于 Strong Exponential Time Hypothesis (SETH)
→
PDF
a month ago
Prev
Next