关键词performance preservation
搜索结果 - 3
- 基于流形对齐的层合并压缩 LLM
使用流形学习和归一化成对信息瓶颈测量方法的基于流形知识对齐和层合并的压缩(MKA)方法,成功降低模型大小并保持性能,在多个基准数据集和各种大语言模型中取得显著的压缩比,并且在与量化结合时,能够实现更大的压缩,提供了一种资源高效且性能保持的大 - 通过组合小语言模型提炼大型语言模型
我们提出了一种简单易行的方法,通过将大型语言模型(LLMs)与良性和小型语言模型(SLMs)集成,从未经筛选的数据的负面影响中净化 LLMs,以提高其性能并减轻版权侵权、数据污染和隐私侵犯等问题。经过综合实验证明,该方法能有效保持 LLMs - ACL神经机器翻译蒸馏数据的采样和过滤
本文探究了利用重要性抽样法进行神经机器翻译中的知识蒸馏,包括剪枝、假设上采样和下采样、去重和它们的组合,并使用标准的翻译质量评估方法对英德和英捷翻译模型进行训练与测试,结果显示,仔细选择合适的数据进行上采样并与原始数据组合,可获得更好的性能