Mar, 2024

扩增偏差一致性训练降低思维连贯中的偏见推理

TL;DR应用偏差增强的一致性训练(BCT)在 GPT-3.5-Turbo 模型上,可以降低严重的偏差性推理达到 86%,平均减少 37% 的偏差性推理,并可以适应未知偏差领域和没有金标的任务。