Aug, 2023
LLM对零样本和少样本提示的比较研究:孟加拉情感分析的微调模型
Zero- and Few-Shot Prompting with LLMs: A Comparative Study with
Fine-tuned Models for Bangla Sentiment Analysis
TL;DR本研究通过33,605条孟加拉文新闻推文和Facebook评论创建了一个庞大的手动注释数据集,并对Flan-T5、GPT-4和Bloomz等多种语言模型进行了零指导和少量指导的上下文学习,与精细调优模型进行了比较分析。研究结果表明,在零指导和少量指导的场景下,单语言变换器模型始终优于其他模型。为了促进进一步的研究探索,我们打算向更广泛的研究社区公开提供这个数据集和我们的研究工具。