Jun, 2024
揭示选择偏见:大型语言模型中的顺序和标记敏感性探索
Unveiling Selection Biases: Exploring Order and Token Sensitivity in
Large Language Models
TL;DR我们在这篇论文中研究了大型语言模型(LLMs)中的“选择偏差”现象,专注于模型在从有序序列中选择最佳选项的问题。我们深入探讨了与选项顺序和标记使用相关的偏差,这些偏差显著影响了LLMs的决策过程。通过多个模型和任务的广泛实证分析,我们还对这些偏差的影响进行了量化。此外,我们提出了缓解策略以增强模型性能。我们的主要贡献有三个方面:1)精确量化了选项顺序和标记对LLMs的影响;2)开发了缓解标记和顺序敏感性以增强鲁棒性的策略;3)详细分析了不同模型和任务的敏感性,为选择问题的更稳定可靠的LLMs应用程序的创建提供了指导。