BriefGPT.xyz
大模型
Ask
alpha
关键词
memory-efficient zeroth-order methods
搜索结果 - 1
AdaZeta:自适应零阶张量列适应方法用于内存高效的大规模语言模型微调
通过提出 Adaptive Zeroth-order Tensor-Train Adaption (AdaZeta) 框架,本文致力于改进 ZO 方法的性能和收敛性,主要关注的问题包括维度相关的 ZO 估计准确性、大规模 ZO 微调任务中的
→
PDF
8 days ago
Prev
Next