利用 GPT-3 扩充数据,提高短文本分类的性能
本文提出一种新的数据增广技术,利用大规模的语言模型从混合的样本中生成逼真的文本样本,并利用语言模型预测的软标签,从大规模语言模型中蒸馏知识并同时创建文本扰动,我们在多元化的分类任务上进行数据增广实验,并展示了该方法远远优于现有的文本增广方法,消融研究和定性分析提供了更多的见解。
Apr, 2021
本研究评估了自然语言文本生成器在多个与安全相关的文本分类任务中填补不足的数据差距方面的应用,并考虑了训练集中不均衡类别的影响。通过使用三种针对冒犯性语言检测、评论欺诈检测和短信垃圾检测的最新分类器进行评估,我们发现使用 GPT-3 数据增强策略训练的模型优于未使用增强和使用常见数据增强策略训练的模型;特别是在已知阳性样本严重不足的情况下,GPT-3 数据增强策略带来了显著的好处。
Oct, 2023
本文提出了一种基于 ChatGPT 的文本数据增强方法(AugGPT),通过将训练样本中的每个句子重新表达为多个概念上相似但语义上不同的样本,提高了数据不变性和样本大小,并在少样本学习文本分类任务上取得了优越性能。
Feb, 2023
本研究旨在评估 GPT-3 作为数据标注器的性能,比较其与传统数据标注方法的差异以及分析其在一系列任务上的输出。通过这种分析,研究人员旨在提供关于 GPT-3 作为 NLP 通用型数据标注器的潜力的见解。
Dec, 2022
本研究利用 GPT-2 生成人工数据增广样本,探究种子数据对生成样本和分类器性能的影响,结果表明在有限的标签实例下将 GPT-2 微调可以实现稳定的分类性能改进,而通过领域专家选择指导此过程可实现进一步提高的效果,这为结合生成模型和主动学习提供了有趣的研究方向。
Nov, 2021
本文介绍 GPT-3 技术的历史发展、关键特性、机器学习模型和数据集,并讨论了其在各个领域中的应用,如人工智能聊天机器人、软件开发、创意工作、领域知识和商业生产力;同时探讨了 GPT-3 面临的挑战,如训练复杂性、偏见和幻觉 / 错误答案等,并讨论了未来的研究机会。
Dec, 2022
通过利用 GPT-4 生成大型语言模型来进行文本数据增强,以解决在自动评分中存在的不均衡数据集的挑战。研究结果表明,GPT-4 增强评分模型在精确度、召回率和 F1 分数方面明显改善,并且对于稳定改善自动评分所需的增强数据比例存在差异。与其他学生编写的响应相比,GPT-4 增强评分模型显示出更好的性能,从而强调了利用生成型大型语言模型进行数据增强技术在自动评估中的潜力和有效性。
Oct, 2023
本研究通过在科学教育中使用示例评估任务,突显了精调 ChatGPT(GPT-3.5)自动评分学生书面构建性答案的潜力。与经过领域特定训练数据细调的 Google 生成语言模型 BERT 相比,GPT-3.5 在自动评分准确性上表现出显著提高,并发布了细调模型以供公众使用和社区参与。
Oct, 2023
本研究提出了一种基于提示的方法,使用诸如 GPT-3 等预训练语言模型来生成带标签的意图分类的训练数据,与需要对数据生成进行任务特定的 LM 微调的方法相比,该方法不需要超参数调整,即使在训练数据非常缺乏的情况下也适用,并且评估结果表明,当考虑到的意图彼此足够不同时,GPT 生成的数据可以显著提高意图分类器的性能;而在半导体上的那些任务中,生成的数据的效果较差,原因是 GPT 经常生成错误的语句,而不是所需的语句。
Apr, 2022
本文通过简单的提示使用 GPT-4 和 ChatGPT 增强有限的标注语料库,用于三种不同的分类任务,在低资源环境中通过生成的合成样本,测试了两种扩充策略:一种是维护原始标签分布,另一种则是平衡分布,实验发现,合成数据有助于实现很好的下游任务效果和极少见类别的识别。
Apr, 2023