孟加拉语中大型语言模型的社会偏见:性别和宗教偏见的实证研究
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
这项研究通过对 24 种语言进行 Word Embedding Association Test (WEAT) 的扩展,以更广阔的研究视角揭示了语言模型的偏见,并通过在全球范围内捕捉有关每种语言的文化相关信息,进一步提高了数据的质量。文章还展示了对毒性、庸能主义等方面的新偏见维度的研究,并通过对印度六种常用语言进行了全面的地区偏见分析,最后通过对嵌入方法的广泛比较强调了这些社会偏见和新维度的重要性,同时强调了解决这些问题对建立更公平的语言模型的必要性。
Oct, 2023
本研究提出了一种新的框架,用于探索语言模型中的社会偏见,通过采集探索数据集和利用一种新的公平性评分方法,发现语言模型中的偏见更加复杂,并揭示不同宗教身份导致各种模型中最明显的不平等处理。
Nov, 2023
预训练语言模型在当前和未来的创新中的好处和能力对任何社会都至关重要,然而,引入和使用语言模型会带来偏见和歧视,引发对平等、多样性和公平的关切,并需要解决。这项研究通过综述综合分析了识别和减轻语言模型中偏见的当前趋势和限制的技术,其中有关减轻偏见的方法的概述被分为度量指标、基准数据集和减轻策略。该调查的重要性和新颖性在于探讨了被忽视的社会的视角,我们认为当前处理偏见问题的做法不能简单地“插入”以解决被忽视的社会的需求。我们使用新西兰的例子提出了采用现有技术来适应被忽视的社会的要求。
Dec, 2023
我们提出了一个名为GPTBIAS的偏见评估框架,它利用LLMs的高性能来评估模型的偏见,提供偏见分数以及包括偏见类型、受影响的人群、关键词和改进建议在内的详细信息,通过广泛的实验证明了该评估框架的有效性和可用性。
Dec, 2023
社会偏见在大型语言模型中是由各种人口统计学特征的目标的社会感知的积累所塑造的。为了全面理解大型语言模型中的这种社会偏见,必须考虑到各种身份认同之间多元观点下的社会感知。本文旨在研究各种视角的社会感知如何影响大型语言模型中社会偏见的发展。为此,我们提出了一种直观量化这些社会感知的新策略,并提出了可以通过汇集多样化的社会感知评估大型语言模型中社会偏见的度量标准。实验结果通过检查社会感知定量地展示了大型语言模型中的社会态度。我们进行的分析表明,我们提出的度量标准捕捉到了社会偏见的多维方面,从而实现了对大型语言模型中偏见的细致全面的调查。
Jun, 2024
大型语言模型(LLMs)具有卓越的性能,在各种自然语言处理(NLP)任务中表现出色。本文通过一种新颖的基于特征的分析方法研究了LLMs内部偏见的传播。我们的发现揭示了LLMs中偏见的复杂性质并强调了定制的去偏方法的必要性,为有效缓解偏见机制和途径提供了更深入的理解。
Jun, 2024
预训练语言模型存在各种社会偏见,本研究旨在对孟加拉语进行内在偏见测量,探讨现有偏见测量方法在孟加拉语中的必要改进,并研究上下文长度变化对偏见测量的影响,通过实验证明偏见度量指标对于上下文长度存在明显依赖性,在孟加拉语偏见分析中需要细致考虑。我们的工作为孟加拉语偏见测量提供了一个基础,我们公开提供所有资源以支持未来的研究。
Jun, 2024
本研究针对Bangla语言中存在的情感与性别之间错综复杂的社会关系,对低资源语言中封闭和开源大语言模型的性别情感归属进行了分析研究,揭示了存在于Bangla中情感性别偏见的存在并展示了情感归属如何基于性别角色选择而改变,并公开提供了所有相关资源以支持Bangla自然语言处理的未来研究。
Jul, 2024
本研究解决了大型语言模型在对孟加拉地区宗教敏感主题时所体现的偏见和刻板印象问题,尤其关注印度教和穆斯林方言。通过不同的实验,我们比较了ChatGPT、Gemini和Microsoft Copilot在这两种方言上的表现,发现了社会偏见的差异,从而为促进大型语言模型的公平性提供了基础。
Jul, 2024