BriefGPT.xyz
Ask
alpha
关键词
deep learning benchmarks
搜索结果 - 2
GATGPT:基于图注意力网络的预训练大型语言模型用于时空填补
在本研究中,我们提出了一种创新方法 GATGPT,它将已训练好的大型语言模型(LLM)与图注意机制相结合,用于时空插补。我们保持大部分 LLM 参数不变,以利用现有知识学习时间模式,并针对不同应用程序调整上层的微调。图注意组件增强了 LLM
→
PDF
7 months ago
PowerGossip: 分散式深度學習中实用的低秩通信压缩
介绍了一种使用低秩线性压缩器直接压缩相邻工作器之间的模型差异的简单算法,在分布式机器学习训练中具有实际应用价值,无需额外的超参数,收敛速度比之前的方法快,并且在一系列深度学习基准测试中的表现与经过调优的最先进压缩算法相当。
PDF
4 years ago
Prev
Next