基于文化意识的机器学习分析 COVID-19 疫苗犹豫
迫切需要将不同文化群体的视角纳入人工智能发展中。我们提出了一个新颖的概念框架,旨在通过独立和相互依赖的文化自我和环境模型来扩大、重新构想和重新建立人工智能的主流愿景。两项调查研究支持该框架,并初步证明人们在想象理想的人工智能时应用了他们的文化模型。与欧美受访者相比,中国受访者认为控制人工智能的重要性较低,与人工智能建立联系的重要性较高,并更倾向于喜欢具有影响能力的人工智能。与欧美受访者和中国受访者相比,非洲裔美国受访者的发现既像欧美受访者又像中国受访者。我们讨论了研究的局限性和未来方向,并强调了开发对世界人口更广泛服务的文化响应和相关人工智能的重要性。
Mar, 2024
AI/NLP models trained on racially biased datasets demonstrate various types of bias, raising profound ethical implications regarding the impact of these models on user experience and decision-making due to the presence of racial bias features in datasets. The research implicates a negative influence on users' persuasiveness due to unexplainable discriminatory outcomes, calling for responsible AI frameworks within organizations.
Jan, 2022
文化在人们的推理、行为和交流中起着根本性的作用。生成性人工智能(AI)技术可能导致文化的转变。我们对大型语言模型进行文化偏差审核,将它们的回应与全国代表性调查数据进行比较,并评估特定国家的提示作为缓解策略。我们发现,GPT-4、3.5 和 3 展现出类似英语和新教欧洲国家的文化价值观。我们的缓解策略减少了近期模型中的文化偏差,但并不适用于所有国家 / 地区。为了避免在生成性人工智能中存在文化偏见,尤其是在高风险环境中,我们建议使用文化匹配和持续进行文化审核。
Nov, 2023
通过从维基百科文献到链接页面的导航,建立文化知识的多元多样化采集方法与 CultureAtlas 数据集,该数据集涵盖了各种亚国家地理区域和族群,用于评估语言模型在文化多元背景下的表现和开发具有文化敏感和意识的语言模型,以促进数字领域中全球文化的更具包容性和平衡的表达。
Feb, 2024
通过调查人类社会学的实际问卷与模型响应的对比,我们的研究发现,大型语言模型 (LLMs) 在两个维度上表现出更高的文化一致性,即当以特定文化的主要语言作为提示时,以及当使用该文化所采用的多语言精炼混合体系进行预训练时,对于模拟调查的不同人物与敏感社会议题,模型的文化一致性更加重要。最后,我们引入了人类学提示的创新方法,利用人类学推理增强文化一致性。我们的研究强调了更平衡的多语言预训练数据集对于更好地代表人类经验多样性和不同文化的复数性,对于跨语言传递的影响的必要性。
Feb, 2024
人工智能发展和治理过程中,公众参与以捕捉多元视角和促进公平实践与结果的有责任的人工智能追求至关重要。通过运用文化共识理论对美国的一个全国代表性调查数据集,我们识别了有关负责任人工智能的信念和态度,为开发人员和政策制定者提供了重要的洞察,使他们能够更有效地考虑个体差异和群体文化视角,并处理公众的关切。
Jan, 2024
通过对 110 个国家和地区的 8 个与文化有关的主题的文化条件生成,以及从这些生成中提取与每个文化相关的符号,我们发现文化条件生成由区分边缘文化与默认文化的语言 “标记” 组成,而且发现 LLM 在文化符号的多样性方面存在不平衡,并且来自不同地理区域的文化在 LLM 的文化无关生成中存在不同的存在。我们的发现促进了进一步研究 LLM 中全球文化知识和公平感知的研究。
Apr, 2024
这项研究通过从 GLOBE 项目获取的价值问题激发 ChatGPT(OpenAI)和 Bard(Google)来探讨了大型语言模型的文化自我认知,结果显示它们与英语国家和经济竞争力强的国家的价值观最为相似。认识到大型语言模型的文化偏见并理解它们的工作方式对社会中的所有人都非常重要,因为我们不希望人工智能的黑盒子延续偏见,使人类在无意中创造和训练更加带有偏见的算法。
Dec, 2023
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了 ML 解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022