ACLMay, 2023

探索零样本和小样本技术用于意图分类

TL;DR本文探讨了在低资源环境下使用领域适应、数据增强、零样本分类以及参数高效的微调等四种方法来解决对话 NLU 提供商在扩展到数千个意图分类模型时遇到的存储空间限制问题,结果表明这些方法对于不同程度的低资金环境下效果有效,在使用 T-few 配方提出的参数高效昆虫微调语言模型的 Flan-T5 上获得了最佳性能,即使只有一个样本每意图。我们还展示了使用意图描述促进 LLM 的零样本方法。