这个笑话是 [MASK]: 通过提示识别幽默和冒犯
使用大型语言模型和提示学习方法解决有毒内容问题,特别关注有毒内容的分类、有毒区域检测和解毒化三个任务,通过广泛评估发现,与针对特定任务训练的模型相比,具有提示学习的大型语言模型在有毒内容分类和有毒区域检测任务上取得了类似甚至更好的性能,对于解毒化任务,提示学习方法成功降低了平均有毒度,同时保持语义含义。
Aug, 2023
通过对大语言模型进行随机组成的实验,研究了任务描述、示例输入、标签、行内指令等多个因素对模型性能的影响,发现重复文本、大型模型以及任务和行内指令对模型性能提升具有积极影响。
Apr, 2024
该研究分析了提示对检测 6 个基于掩码语言模型的命名实体识别模型记忆作用的影响,并通过使用多样的 400 个自动生成的提示集和数据对模型在训练集内和训练集外的名称对的置信度进行了量化。结果显示,不同的提示在同一模型上的性能差异高达 16 个百分点,并且通过优化提示进一步增加了差距。此外,实验证明提示性能依赖于模型,但在不同的名称集合中具有普适性。全面分析表明提示性能受提示属性、包含的标记以及模型对提示的自注意权重的影响。
May, 2024
手动注释计算社会科学任务的数据成本高昂、耗时且情感压力大。最近的研究表明,零 - shot 设置下,语言模型可以执行此类注释任务,但我们对于提示设计如何影响语言模型的遵从和准确性了解甚少。我们进行了大规模的多提示实验,以测试模型选择(ChatGPT、PaLM2 和 Falcon7b)和提示设计特征(定义包含、输出类型、解释和提示长度)对 LLM 生成注释的遵从和准确性的影响,针对四个计算社会科学任务(毒性、情感、谣言态度和新闻框架)。我们的结果表明,LLM 的遵从和准确性高度依赖于提示。例如,提示使用数值得分而不是标签会降低所有 LLM 的遵从和准确性。整体而言,最佳的提示设置取决于任务,微小的提示更改会导致生成标签分布上的巨大变化。通过显示提示设计对 LLM 生成注释的质量和分布有显著影响,本研究作为研究人员和从业者的警示和实践指南。
Jun, 2024
本文提出一种新的框架来解决情感识别的任务,该框架结合了上下文理解、说话者背景及语义标签。作者在三个基准测试中进行了广泛的实验,并证明了该框架的优越性。
Jun, 2023
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
该研究论文调查和组织了一种新兴的自然语言处理范式,这种范式被称为 “基于提示的学习”,并在其中介绍了其基础知识和数学符号,以及其在预训练模型、提示和调整策略等方面的相关研究成果,该框架通过使用模板将输入 x 修改为具有一些未填充信息的文本字符串提示 x',并将语言模型用于填充未填充信息以获得最终字符串 x,从而实现零样本学习和少样本学习。
Jul, 2021
语言模型提示优化研究表明,通过无明显意义或语法结构的自动生成的令牌序列,包括模型嵌入空间中的向量序列,通常胜过语义和语法良好的手工制作的提示。我们使用机器生成的提示来探究模型对非自然语言表达组成的输入的响应,并在多个语义任务中研究不同尺寸模型的行为,以及它们对连续和离散机器生成的提示和人工生成的自然语言提示的响应行为进行比较。即使产生相似的输出,机器生成的和人工提示通过网络处理途径触发不同的响应模式,包括不同的困惑度、不同的注意力和输出熵分布,以及不同的单元激活特征。我们提供了对不同提示类型激活的单元性质的初步洞察,表明只有自然语言提示才会引起真正的语言电路的激活。
Oct, 2023