Aug, 2023
从指令到内在人类价值观——大型模型目标同步调查
From Instructions to Intrinsic Human Values -- A Survey of Alignment
Goals for Big Models
TL;DR通过综合调查现有工作的不同对齐目标并追踪其演变路径,本文揭示了从基本能力到价值取向的目标转变,表明内在人类价值可能是提升大型语言模型对齐目标的关键,进一步讨论了实现此内在价值对齐的挑战,并提供了一系列可用资源以支持未来对大型模型对齐的研究。