LLMEmbed: 文本分类中轻量级 LLM 的真实功能的再思考
提出了一个简单而有力的证实方法,通过比较基于大型语言模型的答案级嵌入来验证模型的答案,以实现诸如汇总、摘要和知识提取等复杂开放式任务的准确性和可扩展性,并展示了在术语提取和文档摘要等实际任务中,与现有方案相比,精度、性价比和运行性能都有显著提高。
Jun, 2024
通过使用大型语言模型(LLMs)的文本嵌入和聚类算法,该研究调查了文本聚类方法对数据集的影响,评估了嵌入对聚类结果的影响、通过摘要进行的维度降低的作用以及嵌入维度和摘要技术的调整。结果显示,LLMs 嵌入在捕捉结构化语言的细微差别方面表现出色,而 BERT 在性能方面领先于其他轻量级选择。此外,我们发现增加嵌入维度和使用摘要技术并不能统一提高聚类效率,暗示这些策略需要仔细分析才能在现实模型中应用。这些结果突显了在文本聚类应用中,需要权衡对细微差别的文本表示需要和计算可行性之间的复杂平衡。该研究通过引入 LLMs 嵌入,扩展了传统文本聚类框架,从而为改进方法学和在各种类型的文本分析中开辟了新的研究方向。
Mar, 2024
通过比较经典词嵌入技术与大型语言模型的词嵌入之间的潜在向量语义,系统地调查了大型语言模型是否在表现上与经典编码模型存在显著差异。结果显示,大型语言模型往往比经典模型更紧密地聚集语义相关的词,并在 Bigger Analogy Test Set (BATS) 上取得更高的平均准确率。此外,一些大型语言模型的词嵌入与相对较轻的句子级 BERT (SBERT) 模型相似。
Feb, 2024
介绍了 ClusterLLM,一种新颖的文本聚类框架,它利用指导调整的大型语言模型(例如 ChatGPT)的反馈。通过与传统的无监督方法相比较,ClusterLLM 具有两个有趣的优势:(1)即使其嵌入不可访问,它也具有 LLM 的紧急能力;(2)通过文本指令和 / 或少量注释数据,他可以理解用户在聚类方面的偏好。
May, 2023
利用零样本学习采用递进性思维提示,与传统的问答格式相比,GPT 模型在文本分类问题上具备零样本分类器的能力,有效地利用提示策略在各种文本分类场景中展现出较好的性能。
Dec, 2023
使用 Large Multimodal Models 中的 MiniGPT-4 模型,结合图像编码器和文本编码器提取语义描述,以提高图像分类任务的性能。
Jun, 2024
通过上下文学习,我们提出了一种基于上下文学习的方法,旨在提高句子嵌入的性能。我们的方法能够使大型语言模型生成高质量的句子嵌入,并且在语义文本相似度任务上表现与当前对比学习方法相当。通过调整模型大小,我们发现超过几十亿参数的模型会对语义文本相似度任务的性能造成损害,但最大的模型超过了其他模型,并在迁移任务上取得了新的最先进结果。我们还使用当前的对比学习方法对大型语言模型进行了微调,将包含我们基于提示的方法的 2.7B OPT 模型的性能超过了 4.8B ST5 的性能,在语义文本相似度任务上实现了新的最先进结果。
Jul, 2023
本文介绍了一种新颖的方法,用于识别可能参与文本生成的大规模语言模型(LLMs)。我们采用了一种将分类任务重新构建为下一个标记预测任务的方法,并直接微调基本语言模型来执行此任务。我们使用 Text-to-Text Transfer Transformer(T5)模型作为实验的基础,并将我们的方法与利用隐藏状态进行分类的更直接方法进行了比较。评估结果显示了我们的方法在文本分类任务中的卓越性能,突出了其简单性和效率。此外,对我们模型提取的特征进行的可解释性研究揭示了其能够在没有显式分类器的情况下区分不同 LLMs 之间的独特写作风格。我们还收集了一个名为 OpenLLMText 的数据集,其中包含来自人类和 LLMs(包括 GPT3.5、PaLM、LLaMA 和 GPT2)的约 340k 个文本样本。
Nov, 2023