利用大型语言模型作为事后校正器
本文提出了一种方法,通过使用较小的 LLM-corrector (LMCor)模型来校正 LLM 生成的输出,从而提高了 LLM 的少样本学习性能,并避免了大量的提示工程。该方法可在不依赖 LLM 权重的情况下进行,可与不同的 LLM 无缝集成以提高其性能。
May, 2023
利用大型语言模型和上下文学习,本研究提出了一种新的解释框架,展示了语言模型在解释其他预测模型方面的有效性,并通过实验证明了其与现有解释技术相媲美的性能,从而在可解释的人工智能领域开辟了新的研究前沿。
Oct, 2023
本文探讨了自我纠错在大型语言模型中的作用和效果,发现大型语言模型在没有外部反馈的情况下难以自我纠正其回应,在某些情况下,性能甚至可能在自我纠正后下降。基于这些发现,提出了未来研究和实际应用的建议。
Oct, 2023
利用大型语言模型(LLM)进行神经机器翻译和自动后编辑,并借鉴低秩适配器微调的方法,在句子和文档级别的度量上取得显著改进,同时还研究了利用人工修正来减少后续翻译所需的编辑次数的实际应用场景。
Oct, 2023
通过使用 Multidimensional Quality Metric (MQM) 注释中的外部反馈来引导大型语言模型 (LLMs) 自动对机器翻译进行后编辑,以提高翻译质量。使用 LLaMA-2 模型,通过改变反馈的特性,我们考虑了不同的提示策略,并对 LLM 进行微调以提高其利用所提供指导的能力,实验证明提示 LLMs 对机器翻译进行后编辑,可以改善 TER、BLEU 和 COMET 分数,微调有助于更有效地整合细粒度的反馈,并基于自动和人工评估进一步提高翻译质量。
Apr, 2024
利用预训练的大型语言模型 (LLM) 对经典的监督机器学习方法进行增强,以应对分类问题,并提出了几种将 LLM 集成到经典机器学习估计器中的方法,从而进一步提高预测性能。通过标准的有监督学习二分类任务和数据分布发生变化的迁移学习任务,对所提出的方法进行了性能评估。通过对四个公开的数据集进行数值实验,结果表明利用 LLM 增强经典机器学习估计器可以显著提升预测性能。
May, 2024
基于一种类似于对齐任务的简化设置,我们从上下文学习的角度对自我纠正进行理论分析,显示出大语言模型通过给予相对准确的自我检查作为奖励,能够以上下文的方式改进响应。我们的理论构建突破了之前关于过于简化的线性变换器的理论,阐述了现实变换器的几个关键设计在自我纠正中的作用:softmax 关注、多头关注和 MLP 块。经过广泛的合成数据集验证,我们进一步阐述了自我纠正的新应用,例如抵制大型语言模型越狱,其中简单的自我纠正步骤确实产生了很大的差异。我们相信这些发现将激发进一步研究自我纠正的理解、利用和增强,以构建更好的基础模型。
May, 2024
本研究提出了三种策略以增强不太具备资源的语言在大型语言模型中的表现:扩展词汇表、使用双语数据进行预训练以对齐高资源语言和低资源语言、构建高质量的小规模指令数据集并进行指令微调。通过对比八个任务的其他大型语言模型,在质量分析中,我们的提出的 Bllossom 模型表现出优异的性能。
Mar, 2024
此研究拓展了大型语言模型(LLMs)的应用,探索了它们在数据预处理中的潜力,包括错误检测、数据插补、模式匹配和实体匹配任务。我们提出了一个基于 LLMs 的框架,用于改进模型的性能和效率。实验结果表明 LLMs 在数据预处理中具有巨大潜力。
Aug, 2023