BriefGPT.xyz
大模型
Ask
alpha
关键词
memory-constrained settings
搜索结果 - 3
零阶极度稀疏 LLMs 的微调
本研究通过将稀疏性和量化技术整合到零阶优化(ZO)细调的大型语言模型(LLM)中,从而解决在内存受限环境(如移动电话和笔记本电脑)中使用 ZO 细调的挑战。研究结果表明,使用 ZO 对 LLM 进行 0.1% 敏感参数细调能优于全面细调,并
→
PDF
a month ago
持续学习:应用与未来发展
连续学习是机器学习的一个子领域,本文调查了连续学习研究中的内存受限设置、未解决的问题以及未来的研究方向。
PDF
7 months ago
受内存限制的自动完成中,小字符模型能与大词模型匹配
本文研究的是低频用户提示模式或广泛提示的自动完成任务以及在受限内存下使用基于字符的语言模型降低整体模型大小的效果。研究证明,当控制模型大小时,字符模型的自动完成任务的精确匹配准确性与字模型相当。作者进一步尝试在字符模型中融入大型字模型的组成
→
PDF
2 years ago
Prev
Next