May, 2023
通过自身进一步优化 LLMs 的响应
Refining the Responses of LLMs by Themselves
Tianqiang Yan, Tiansheng Xu
TL;DR通过提示工程实现自我优化的响应精炼框架可显著提高 GPT-3.5 模型的表现,从而使其甚至超越目前领先的 GPT-4 模型。
Abstract
In this paper, we propose a simple yet efficient approach based on prompt
engineering that leverages the large language model itself to optimize its
answers without relying on auxiliary models. We introduce an iterative
prompt engineeringlarge language modelself-evaluating optimizationresponse refinement frameworkgpt-3.5
发现论文,激发创造
自我改进:带自反馈的迭代改进
通过引入 SELF-REFINE 框架,可以通过迭代反馈和改进从 LLMs 获得更好的输出,同时不需要监督训练数据或强化学习,且在 7 种任务中展现出优越性能。
Mar, 2023
提升大型语言模型性能以更准确地回答问题和提取信息
通过精调模型和对称相似度、LLM 评估和 Rouge-L 分数等指标的连续反馈循环来提高人工智能模型,利用金融数据集和检索增强生成技术 (RAG),证明精调模型在问题回答能力方面能够超越零 - shot LLMs 的准确性。
Jan, 2024
大型语言模型的迭代翻译优化
本文提出了迭代翻译改进方法,利用大型语言模型处理自然语言任务并提升翻译质量。通过与 GPT-3.5 进行广泛测试,证明了通过迭代翻译改进方法可以将翻译质量提高至可与人类相媲美。
Jun, 2023
利用大型语言模型进行基于 OntoClean 的本体修正
本研究探讨了将大型语言模型(LLMs)如 GPT-3.5 和 GPT-4 整合到本体修正过程中,特别关注 OntoClean 方法论。研究通过采用两种提示策略的 LLMs,证明了在标注过程中可以获得高准确性,并提出了开发插件软件以促进本体工具整合的潜力。
Mar, 2024
LLM 细化之艺:问、细化与信任
近年来,大型语言模型展现出了令人瞩目的生成能力,但它们能判断自己生成的质量吗?我们提出了一种名为 ART 的推理与改进目标,通过提出必要的问题来决定何时应该改进模型的输出,并通过对改进和初始预测进行排名来确认或保留对改进的信任。在数学 word 问题和问答任务上,ART 相较于自我改进的基线表现提高了 5 个百分点,并且更小的模型作为决策者显示出了使用更小模型进行改进决策的好处,作为经济高效的替代方法。
Nov, 2023