Nov, 2023

如何使有限资源的文本分类在银行业变得物超所值

TL;DR标准的 NLP 全数据分类器需要成千上万个标记示例,在数据有限的领域中是不切实际的。少样本学习方法提供了一种替代方案,利用对比学习技术,在每个类别只需 20 个示例即可发挥有效作用。类似地,像 GPT-4 这样的大型语言模型也可在每个类别只有 1-5 个示例的情况下有效运行。然而,这些方法的性能与成本之间的权衡仍然未被充分研究,这对于预算有限的组织来说是一个关键问题。我们的工作通过在 Banking77 金融意图检测数据集上研究上述方法来填补这一空白,包括评估 OpenAI、Cohere 和 Anthropic 的最新大型语言模型在全面的少样本场景中的表现。我们通过两种额外的方法来完善整个研究:一是基于检索增强生成(RAG)的成本效益查询方法,与经典的少样本方法相比,能够多次降低运营成本;二是使用 GPT-4 的数据增强方法,能够改善数据有限情况下的性能。最后,为了激发未来的研究,我们提供了一个人工专家策划的 Banking77 子集,以及广泛的错误分析。