Feb, 2024
少样本公平性:揭示 LLM 对公平感知分类的潜力
Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification
TL;DR利用大型语言模型(LLM)在各种下游应用中进行分类等工作至关重要,通过公平性可以确保包容性,基于种族、性别等因素实现平等代表和促进负责任的人工智能部署。本研究引入了一个框架来概述与各种公平性定义相一致的公平性规定,每个定义均由不同程度的抽象调控。我们通过在流程中将公平规则纳入,并使用RAG选择上下文演示来探索上下文学习的配置和过程。通过与不同LLM的实验比较,发现GPT-4在准确性和公平性方面的结果都优于其他模型。本研究是利用LLMs通过上下文学习实现预测任务公平性的早期尝试之一。