校对:轻点一下修复所有错误
使用参数高效微调(PEFT)方法中的量化模型,通过细调大型语言模型(LLMs)自动为短答案和论文分配连续数值评分以及生成相关反馈,达到高准确性且成本和延迟相对较低。
May, 2024
本文介绍了一项关于增强大型语言模型(LLMs)在机器翻译(MT)任务中翻译能力的研究,提出了一个包括三个阶段的新范 Paradigm,通过使用大量的单语数据进行二次预训练、使用互译文本格式文档进行连续预训练,以及利用和源语言一致的指导来进行监督微调。实验结果表明,我们的方法在翻译能力方面取得了显著的改进,超过了以前的工作,并在参数数量较小的情况下实现了优越的性能。
Mar, 2024
通过精调模型和对称相似度、LLM 评估和 Rouge-L 分数等指标的连续反馈循环来提高人工智能模型,利用金融数据集和检索增强生成技术 (RAG),证明精调模型在问题回答能力方面能够超越零 - shot LLMs 的准确性。
Jan, 2024
使用指令调整的新方法构建了一个移动中心的文本改写模型,通过高质量的无需人工标注的训练数据和启发式强化学习框架提高性能,并通过级联方法将移动重写代理与服务器模型结合,从而在保持显著减小模型尺寸的同时,超越了目前最先进的大型语言模型在文本重写方面的性能。
Aug, 2023
本文介绍了一种新的评估基准 OpenRewriteEval 和一个基于指令调整的大型语言模型 RewriteLM,重点是长篇文本重写,展示了该模型在保留源文本的核心内容和意义,减少幻觉生成的内容,并展示了生成具有多种措辞和结构的改写的能力。
May, 2023
通过提出一种新的微调方法,我们设计了一种面向翻译任务的先进语言模型的翻译器 ALMA,该模型在 WMT'21 和 WMT'22 的测试数据集上相比于之前的工作和具有 7B 或 13B 参数的模型有着显著性能提升,并为机器翻译领域的新的训练范式奠定了基础。
Sep, 2023
通过使用 Multidimensional Quality Metric (MQM) 注释中的外部反馈来引导大型语言模型 (LLMs) 自动对机器翻译进行后编辑,以提高翻译质量。使用 LLaMA-2 模型,通过改变反馈的特性,我们考虑了不同的提示策略,并对 LLM 进行微调以提高其利用所提供指导的能力,实验证明提示 LLMs 对机器翻译进行后编辑,可以改善 TER、BLEU 和 COMET 分数,微调有助于更有效地整合细粒度的反馈,并基于自动和人工评估进一步提高翻译质量。
Apr, 2024
通过对大规模语言模型进行微调以构建可扩展的评判模型,提出了一种有效评估大规模语言模型的方法,并成功应用于新的基准测试中,获得了最佳表现。
Oct, 2023
通过在城市更新领域中自动产生问答数据集,并使用 Prefix 和 LoRA 的联合微调方法对模型进行联合微调训练,本研究提出的联合微调训练方法能够显著提高 LLM 在知识问答任务上的性能,相比 LoRA 微调,该方法使测试中的 Bleu 和 Rouge 指标提高了约 5%;相比微调前的模型,该方法使 Bleu 和 Rouge 指标提高了约 15% -20%。该研究证明了在城市更新知识问答任务中使用 Prefix 和 LoRA 的联合微调方法对 ChatGLM 的有效性和优越性,为 LLM 在城市更新相关任务上的微调提供了新的方法。
Nov, 2023
通过细粒度的分词级监督来增强预训练的大规模语言模型(LLM)的对齐,该方法可提高 LLM 性能的绝对改善率高达 5.1%,与传统的 PPO 模型相比,训练集是通过最小编辑来改善标准奖励模型数据集中较不受欢迎的回答,以确保在必要的地方进行改动,同时保留大部分原始内容。
Jun, 2024