探究预训练语言模型在跨文化价值差异中的应用
通过调查人类社会学的实际问卷与模型响应的对比,我们的研究发现,大型语言模型 (LLMs) 在两个维度上表现出更高的文化一致性,即当以特定文化的主要语言作为提示时,以及当使用该文化所采用的多语言精炼混合体系进行预训练时,对于模拟调查的不同人物与敏感社会议题,模型的文化一致性更加重要。最后,我们引入了人类学提示的创新方法,利用人类学推理增强文化一致性。我们的研究强调了更平衡的多语言预训练数据集对于更好地代表人类经验多样性和不同文化的复数性,对于跨语言传递的影响的必要性。
Feb, 2024
通过全面的研究,我们证实了多语言语言模型中存在多语言人类价值观念,进一步的跨语言分析揭示了语言资源差异引起的三个特征:跨语言不一致性、扭曲的语言关系以及高资源语言与低资源语言之间的单向跨语言传递,同时验证了通过使用主导语言作为源语言来控制多语言语言模型的价值观调整能力的可行性。我们的发现在多语言语言模型的预训练数据构成方面给出了明智的建议:在跨语言对齐传递时包含有限数量的主导语言,避免其过度流行,并保持非主导语言的平衡分布。我们希望我们的发现能够为增强多语言人工智能的安全性和实用性做出贡献。
Feb, 2024
本文探讨了预训练的多语言语言模型是否会从英语中捕捉道德规范,并将其强加在其他语言中,以及它们是否在某些语言中表现出随机且潜在有害的信念。研究还在多语言模型上应用了 MoralDirection 框架,分析了在过滤的平行字幕语料库上的模型行为,并将模型应用于道德基础调查问卷,比较不同国家的人类反应。实验表明,预训练的多语言语言模型确实会编码不同的道德偏见,但这些偏见不一定对应于人类观点的文化差异或共性。
Nov, 2022
利用一个名为识别价值共鸣(RVR)的 NLP 模型,将 WVS 调查的价值观与生成的 LLMs 文本进行比较,发现 LLMs 显示出西方中心主义的价值偏见,高估了非西方国家的保守性,对非西方国家的性别表达不准确,并将年长人口描绘为更具传统价值。
Dec, 2023
通过对大型语言模型进行 Hofstede 文化维度的建议请求,研究发现大型语言模型在反映用户国家的价值观方面存在差异,但在回答问题时不一定遵循这些价值观,难以理解基于不同文化价值观的差异,因此提出了训练以价值观和文化敏感为导向的大型语言模型的建议。
Jun, 2024
通过对 PEW 全球调查和世界价值观调查的分析,我们发现预训练的英文语言模型虽然可以捕捉到横跨 55 个国家和地区的细粒度(例如 “同性恋” 和 “离婚”)道德变异,但不能够显著地预测各个国家的道德规范,然而通过精调可以在牺牲准确度的情况下改善跨国推断。最后我们探讨了将文化知识纳入自动化道德规范推断的相关挑战与意义。
Jun, 2023
通过对捷克政治性偏见进行案例研究,本论文介绍了一种新的方法来衡量神经语言模型的政治价值观,发现 BERT 大小的模型与政治价值观没有系统的一致性,模型中观察到的偏见更多是对训练数据模式的表面模仿,而非系统的价值信仰。
Mar, 2024
使用 Hofstede 的文化维度框架,通过潜变量分析提供解释性跨文化比较,文中提出了 Cultural Alignment Test(CAT)以解决大型语言模型(LLMs)的文化不匹配问题,并使用不同的提示样式和超参数设置评估了 ChatGPT 和 Bard 等 LLMs 嵌入在美国、沙特阿拉伯、中国和斯洛伐克等不同文化之中的文化价值。结果不仅量化了 LLMs 与特定国家的文化一致性,还揭示了 LLMs 在解释性文化维度方面的差异。其中 GPT-4 在理解美国文化价值方面得分最高。
Aug, 2023
基于心理学方法研究,该论文通过提出 ValueLex 框架,重建了大型语言模型(LLMs)的独特价值体系,并鉴定出了三个核心价值维度:能力、品格和诚信。同时,他们还开发了定制的项目测试来评估和分析 LLMs 在不同模型规模、训练方法和数据来源下的价值倾向,从而为未来的人工智能对齐和规范铺平了道路。
Apr, 2024