针对预训练语言模型的少样本指令提示,用于检测社会偏见
评估指令微调语言模型通过零样本提示,包括思维链(CoT)提示,识别偏见的能力,其中 Alpaca 7B 在偏见识别任务中具有 56.7%的准确性,同时展示了 LLM 规模和数据多样性的扩大可能会进一步提高性能。
Jul, 2023
本研究探讨了大型语言模型(LLMs)在不同提示变化下对任务表现和社会偏见的敏感性,发现 LLMs 对提示的敏感程度很高,可能导致在任务表现和社会偏见方面的模型排名波动。此外,在优化社会偏见和任务表现之间存在权衡,而高级 LLMs 的示例模糊性是导致对提示敏感性的原因之一。因此,建议使用多样化的提示来比较提示对 LLMs 社会偏见的影响。
Jul, 2024
使用少量训练示例和任务说明来训练语言模型对于几乎所有任务都很重要,本文提出在极小数据量情境下调整 LM 可显著降低提示工程需求,使用 0.1% 参数更新的 bias terms 可以实现与标准调整相当甚至更好的准确性。
Jun, 2021
评估少量样本学习模型在没有未使用样本的情况下的表现,发现先前的工作对于 LM prompt 和超参数的选择方式大大低估了预训练语言模型在小样本学习方面的能力。
May, 2021
本文提出了一个度量标准,评估了一个固定提示对标签或给定属性的预测偏差,并提出了一种新的基于贪心搜索的搜索策略来确定最佳提示,以提高上下文学习的性能,并在多种下游任务中使用 GPT-3 等最先进的主流模型进行全面实验。结果表明,我们的方法可以有效提高模型的在上下文学习性能。
Mar, 2023
本文提出了一种数据干预策略,通过在仅使用 10 个去偏见(干预)的训练样例上微调预训练模型,可显著降低优先考虑任何性别的趋势,从而减少预训练大型语言模型中的性别偏见,而且此方法的使用成本低,是一种高度可行且实用的少量训练样例去偏见方法。
Jun, 2023
我们提出了一种空输入提示方法,通过使用来自 GPT-4 的多样化的空意义输入来为预训练语言模型的内在偏差校准提供基准,从而提高了零 / 少样本学习的性能。
Feb, 2024
本文探讨了通过基于提示的少样本学习在对话任务中的应用,通过对多种大小的语言模型进行测试,提出一种新的无需微调的提示分类器,并结合技能选择器创建了一种称为 Few-Shot Bot 的端到端聊天机器人,只需使用少量对话示例便可以完成知识检索并生成人类般自然的响应。
Oct, 2021
LM-BFF 提出了一种改进的面向小型语言模型的少样本 fine-tuning 方法以提升在多种 NLP 任务上的性能。通过与传统的 fine-tuning 方法相比,LM-BFF 组合的技术在低资源环境下具有显著改进,最高可达 30%,平均提高 11%。
Dec, 2020
本文介绍了一种零样本自我去偏见技术,通过解释和重提出两种方法,利用大型语言模型来降低刻板印象。我们展示了自我去偏见技术能够在不需要修改训练数据、模型参数或解码策略的情况下,减少九个不同社会群体的刻板印象程度,其中解释能够正确识别无效假设,重提出能够实现最大程度的偏见减少。我们希望本研究能够引发对其他零样本偏见减轻技术的探索。
Feb, 2024