关键词demonstration selection
搜索结果 - 10
- DemoRank: 选择大型语言模型在排序任务中的有效演示
近期,对于将大型语言模型应用于零样本段落排名的兴趣日益增加。本文关注于如何选择适当的上下文演示来进行段落排名任务,并提出了 DemoRank 框架,通过检索再排序的过程解决了这个问题,并在域内和域外的场景中展示了其有效性。
- 统一演示选择与压缩以实现上下文学习
ICL 的框架 UniICL 通过一个冻结的 LLM 统一了演示选择、演示压缩和响应生成,并实现了有效的缩放,从 4-shot 到 64-shot 的 ICL 提高了 12 倍。
- ACL整体优于部分:在序列推荐的上下文学习中使用聚合演示
使用大型语言模型(LLMs)作为强序贯推荐器,通过探索上下文学习方法进行序贯推荐,研究了指导格式、任务一致性、演示选择和演示数量的影响。我们提出了一种名为 LLMSRec-Syn 的新方法,将多个演示用户合并成一个聚合演示,实验证明 LLM - 再探在上下文学习中的示范选择策略
大型语言模型通过上下文学习(ICL)展示出了在各种任务中都具备惊人的能力,本研究探讨了影响 ICL 性能的因素,并提出了一种基于数据和模型的演示选择方法,该方法通过性能与模型对测试样本的理解相关联来进行演示选择,从而在语言理解和生成任务中实 - 基于误判的 LLM 情境学习的示范选择
本文介绍了一种名为 In-Context Reflection (ICR) 的新方法,通过策略性地选择示范来减少大语言模型 (LLMs) 的输出与实际输入输出映射之间的差异,从而克服了在实践中选择示范的困难。经过综合评估,ICR 在五个不同 - 链式思维推理的潜在技能发现
最近的大型语言模型 (LLMs) 的前进使得思维链 (CoT) 提醒的紧急能力增加,它是一种在问题和答案之间添加中间的合理步骤来构造提示的合理推理策略。在这些提示的条件下,LLMs 可以有效地学习上下文以生成比直接回答相同问题更准确的答案所 - 面向实体解析的经济高效上下文学习方法探索
综合研究了如何开发一种经济高效的批量提示方法来进行实体解析,通过引入批处理和选择演示来支持批量提示,并探索了不同的设计选择。通过广泛的实验证明,与基于 PLM 的方法和手动设计提示的 LLM-based 方法相比,批量提示对于实体解析非常具 - 具有大型语言模型的语境中感知歧义学习
通过对三个文本分类任务的广泛实验,我们发现在选择演示示例时,不仅选择语义上相似的演示示例有益,还选择那些有助于解决测试示例周围固有标签模糊性的演示示例。有趣的是,我们发现包括之前被 LLM 错误分类并且与测试示例的决策边界相近的演示示例能够 - 大语言模型上下文学习的主动学习原则
本文旨在探讨如何使用主动学习算法作为选择最佳演示文稿的方法来服务于上下文学习,对比了基于不确定性、多样性和相似性等各种标准的演示文稿选择算法,并表明相似性算法胜过其他所有方法,包括随机抽样和不确定性抽样。
- 增强大型语言模型的少样本文本到 SQL 能力:关于提示设计策略的研究
本文介绍了一种基于大型语言模型的 In-context learning 方法用于文本到 SQL 查询转换中,通过不同的演示选择策略和指令格式来提高 LLMs 性能。实验结果表明,该方法在 Spider 数据集上超出了最先进系统 2.5 个