通过高效的上下文学习方法增强 ChatGPT 能力的 OverPrompt
本文提出了一个度量标准,评估了一个固定提示对标签或给定属性的预测偏差,并提出了一种新的基于贪心搜索的搜索策略来确定最佳提示,以提高上下文学习的性能,并在多种下游任务中使用 GPT-3 等最先进的主流模型进行全面实验。结果表明,我们的方法可以有效提高模型的在上下文学习性能。
Mar, 2023
本文介绍了新的提示方法(Error Analysis Prompting), 结合 Chain-of-Thoughts 和 Error Analysis, 用于提高 ChatGPT 在机器翻译质量评估方面的性能,并发现了一些其作为 MT 评估器的局限性,结果表明,使用 Error Analysis Prompting,ChatGPT 可以在系统和段落级别上生成类似人类的 MT 评估。
Mar, 2023
通过添加模块的方式提高 ChatGPT 在各种自然语言处理任务中的表现,解决了 token,生成能力以及 LLMs 模型特有问题等方面的挑战并在 21 个数据集的 10 个代表性任务中获得了与监督学习基线相当甚至更好的表现.
Jun, 2023
这篇论文探讨了将翻译目的和目标受众整合到 ChatGPT 的提示中对所生成翻译质量的影响。研究强调了翻译过程中的前期准备阶段的重要性,通过借鉴以往的翻译研究、行业实践和 ISO 标准进行分析。研究发现,在像 ChatGPT 这样的大规模语言模型中加入适当的提示可以产生灵活的翻译,而传统的机器翻译尚未实现这一目标。通过使用 OpenAI 的词嵌入 API 进行余弦相似度计算,评估从从实际翻译员的视角主观和定性地进行,结果表明将翻译目的和目标受众整合到提示中确实可以修改所生成的翻译,从而在行业标准上普遍提高翻译质量。该研究还展示了 “良好的翻译” 概念的实际应用,特别是在营销文件和文化习语的背景下。
Aug, 2023
该研究提出了一种创新的方法,在临床决策中应用大型语言模型(LLMs),重点关注 OpenAI 的 ChatGPT。我们的方法介绍了在数据稀缺情况下,采用上下文提示(策略性地设计了包括任务描述、特征描述和领域知识整合的提示)进行高质量二元分类任务的应用。我们的研究探索了 LLMs 基于零样本和少样本提示学习的动态性,通过比较 OpenAI 的 ChatGPT 在不同数据条件下与传统监督式机器学习模型的性能,旨在提供对不同数据可用性下提示工程策略有效性的见解。这篇论文架起了人工智能和医疗保健之间的桥梁,提出了一种新的 LLMs 在临床决策辅助系统中的应用方法,并强调了提示设计、领域知识整合和灵活学习方法在增强自动化决策方面的变革潜力。
Aug, 2023
通过对大语言模型进行随机组成的实验,研究了任务描述、示例输入、标签、行内指令等多个因素对模型性能的影响,发现重复文本、大型模型以及任务和行内指令对模型性能提升具有积极影响。
Apr, 2024
本文提出了一种新的连续提示方法,称为上下文调整,用于对预训练语言模型进行微调以进行自然语言生成,可以根据输入文本生成上下文化的提示,然后使用连续的反向提示来改进过程自然语言生成的过程。
Jan, 2022
本文通过简单的提示使用 GPT-4 和 ChatGPT 增强有限的标注语料库,用于三种不同的分类任务,在低资源环境中通过生成的合成样本,测试了两种扩充策略:一种是维护原始标签分布,另一种则是平衡分布,实验发现,合成数据有助于实现很好的下游任务效果和极少见类别的识别。
Apr, 2023
Transformer-based language models can be enhanced with MemoryPrompt, a leaner approach that complements the model with a small auxiliary recurrent network, improving the model's ability to track multiple fact updates and avoiding catastrophic forgetting when adapted to new tasks.
Feb, 2024
本文旨在通过重新审视温度、任务信息和领域信息等方面,提出两种简单但有效的提示:任务特定提示 (TSP) 和领域特定提示 (DSP),以进一步挖掘 ChatGPT 的翻译能力。我们表明:1) ChatGPT 的性能很大程度上取决于温度,较低的温度通常可以取得更好的性能;2) 强调任务信息可以进一步提高 ChatGPT 的性能,尤其是在复杂的机器翻译任务中;3) 引入领域信息可以引出 ChatGPT 的泛化能力,并提高其在特定领域的性能;4) 对于非英文中心的机器翻译任务,ChatGPT 倾向于产生幻觉,我们的提示可以部分解决这个问题,但仍需引起机器翻译 / 自然语言处理社区的重视。我们还探讨了高阶上下文学习策略的影响,发现一个 (负但有趣的) 观察结果:强大的思维链提示会导致逐字逐句的翻译行为,从而带来显著的翻译降解。
Mar, 2023