利用智能手机传感实现设备上的个性化LLMs
本文介绍了一个框架,可收集来自个人移动设备的数据集,包含异构传感器数据,使用六种降维技术,可以在保持准确率损失小于3%的情况下,实现10倍加速和超过90%的特征减少,从而提高上下文分类能力。
Jun, 2023
AI 领域近年来取得了显著的进展,尤其是基于变压器架构的强大大型语言模型(LLMs)的出现。本文介绍了一种创新的LLM推理方法,展望了在无需网络连接的情况下,拥有数十亿参数的LLMs可以直接在移动设备上执行的未来。该应用程序不仅作为一个通用助手,而且通过原生代码和模型量化技术的结合,还可以实现与文本到动作功能的无缝移动交互。文章还提供了关于本地LLM推理的训练流程、实现细节、测试结果和未来方向的见解。这一突破性技术为用户提供了强大的人工智能能力,同时保护了用户的隐私并消除了延迟问题。
Sep, 2023
通过提出一种新的框架来选择和存储在线上最具代表性的数据,本文解决了在设备上进行个性化的大型语言模型优化的问题,考虑了稀疏标注和有限的设备存储空间。
Nov, 2023
本研究探讨在各种苹果iPhone型号上进行设备内大型语言模型(LLM)推理的可行性和性能。通过对运行在有限资源设备上的数十亿参数的LLM的现有文献进行利用,我们的研究考察了高性能LLM在不同智能手机世代上的热效应和交互速度。通过提供实际性能结果,我们提供了关于设备内推理能力的见解。
Dec, 2023
在移动设备上进行大型语言模型的定制化是一个重要问题,本文提出了一种名为Crayon的方法,通过构建多样化的基础适配器,并将它们融合成一个定制化适配器,从而在不额外训练的情况下实现在移动设备上进行语言模型定制化,此外,本文还开发了一种设备-服务器混合推理策略,可在服务器上处理更复杂的查询或非定制任务,保证了最佳性能和在移动设备上进行定制化的优势。通过建立了一个新颖的基准测试集,本文展示了该方法在语言模型定制化方面的有效性。
Jun, 2024
该研究利用大型语言模型通过手机感应数据预测情绪结果,显示出大型语言模型在推断普遍幸福感方面的有效性,揭示了智能手机行为模式与情绪状态之间的复杂联系,是首个将大型语言模型应用于情绪状态预测和数字表型任务的研究。
Jul, 2024
本研究针对设备受限环境下运行大型语言模型(LLMs)面临的挑战进行了深入分析,提出了高效架构及压缩技术等创新解决方案。研究发现,通过硬件加速和边缘云协作方式,可以在性能与资源利用之间实现微妙平衡,为未来基于设备的智能计算发展提供了重要指导。重要性在于解决资源限制问题,同时实现个性化和适应性学习。
Aug, 2024
本研究解决了大型语言模型在个性化应用中对用户偏好的适应性不足问题。提出的自适应自监督学习策略(ASLS)利用自监督学习技术,结合用户交互数据和实时模型微调,能够持续学习用户反馈,提高个性化效率。实验结果表明,ASLS在增强用户参与度和满意度方面表现出色,具有重塑大型语言模型的潜力。
Sep, 2024