数字序列提示:市场评论生成的案例研究
通过创新自动生成系统,本文提出了两种新方法:一种基于强化学习的算法用于识别和排序与任务相关的列,另一种基于单元格相似性的方法用于增强少样例选择,该方法在 66 个数据集上经过了广泛测试,并使用两个不同的大型语言模型(Google flan-t5-xxl 和 Mixtral 8x7B)在数据填充、错误检测和实体匹配三个下游任务中展现出改进的性能。
May, 2024
语言模型提示优化研究表明,通过无明显意义或语法结构的自动生成的令牌序列,包括模型嵌入空间中的向量序列,通常胜过语义和语法良好的手工制作的提示。我们使用机器生成的提示来探究模型对非自然语言表达组成的输入的响应,并在多个语义任务中研究不同尺寸模型的行为,以及它们对连续和离散机器生成的提示和人工生成的自然语言提示的响应行为进行比较。即使产生相似的输出,机器生成的和人工提示通过网络处理途径触发不同的响应模式,包括不同的困惑度、不同的注意力和输出熵分布,以及不同的单元激活特征。我们提供了对不同提示类型激活的单元性质的初步洞察,表明只有自然语言提示才会引起真正的语言电路的激活。
Oct, 2023
通过挖掘 StackOverflow 帖子中的实际自然语言到代码任务来创建一个数据集,该论文提出了一种以聚类选择为基础的提示技术来确定在 LLMs 提示中包含多少数据以及选择哪些数据,并通过实验表明 LLM 的性能确实对提示中所传递的数据量敏感,对于输入表中存在大量语法变化的任务,聚类选择技术优于随机选择基准模型。
Feb, 2024
探讨利用时间戳,如文档创建日期,将时间信息纳入到生成系统中的影响,研究时间感知提示的两种类型,并引入一个新的数据生成数据集 TempWikiBio,通过数据生成、文本传输和摘要三个数据集展示了使用线性提示和文本提示可以提高所有数据集的生成质量,线性提示对非时间信息更加关注,对时间敏感度较低,而文本提示可以产生更符合事实的时间信息。
Nov, 2022
使用大型语言模型进行基于语言的移动性预测已成为一种创新的方法。本文提出了一种基于信息熵的提示生成和链式思维等机制的提示细化的框架,旨在探索多样的提示设计策略,实验结果表明了我们提出的提示挖掘管道的优越性,为进一步推进基于语言的移动性预测提供了有希望的方向。
Mar, 2024
通过研究大型语言模型的评估生成文本的提示设计,本研究发现不同提示结构和包含解释性原因的顺序对语言模型评分有重要影响,进而提出了优化评分一致性的方法。
Jun, 2024
自动选择给定输入的最佳提示,克服手动设计有效提示的挑战,通过聚类训练数据、生成候选提示、生成输入 - 提示 - 输出数据集以训练评估器,并使用评估器在测试时选择最佳提示来实现兼顾通用性和特异性的方法。在零 - shot 问答数据集上显示出竞争性性能。
Apr, 2024
手动注释计算社会科学任务的数据成本高昂、耗时且情感压力大。最近的研究表明,零 - shot 设置下,语言模型可以执行此类注释任务,但我们对于提示设计如何影响语言模型的遵从和准确性了解甚少。我们进行了大规模的多提示实验,以测试模型选择(ChatGPT、PaLM2 和 Falcon7b)和提示设计特征(定义包含、输出类型、解释和提示长度)对 LLM 生成注释的遵从和准确性的影响,针对四个计算社会科学任务(毒性、情感、谣言态度和新闻框架)。我们的结果表明,LLM 的遵从和准确性高度依赖于提示。例如,提示使用数值得分而不是标签会降低所有 LLM 的遵从和准确性。整体而言,最佳的提示设置取决于任务,微小的提示更改会导致生成标签分布上的巨大变化。通过显示提示设计对 LLM 生成注释的质量和分布有显著影响,本研究作为研究人员和从业者的警示和实践指南。
Jun, 2024
通过使用大型语言模型(Large Language Models,LLMs)生成合成数据解决分类不平衡问题,在 CSV 格式中采用新颖的分组提示方法,利用 LLMs 的上下文学习能力生成满足目标数据集要求和特征的数据,并通过随机词替换策略提高处理单调分类值的准确性和代表性。在八个真实公共数据集上广泛验证我们的方法,取得了优于现有方法的下游分类和回归任务性能,同时保持特征间的相关性并提高标识的效率。该研究对于解决机器学习应用中关于表格数据生成和处理类别不平衡的关键挑战具有重要意义。
Apr, 2024
本文探讨利用大型语言模型的学习能力来发现和解释数据中的模式,并提出了一种名为 iPrompt 的算法来生成自然语言字符串,从而实现可解释的自动提示,用于帮助数据分析、科学发现和信息处理等领域。
Oct, 2022