Jul, 2024

政治偏见对大型语言模型在立场分类中表现的影响研究

TL;DR本研究探讨大型语言模型(LLMs)在立场分类任务中体现的政治偏见,填补了对这类偏见如何影响模型性能的研究空白。通过分析三个数据集和七个LLM,我们发现LLMs在分类政治性立场时表现出显著的性能差异,尤其在目标陈述模糊时表现较差。这一发现为理解LLMs在特定任务中的偏见提供了重要见解。