ChatGPT 作为文本简化工具去除偏见
GPT-3.5 Turbo 和 GPT-4 对非 “标准” 语言变体表现出语言偏见,导致理解能力减弱、刻板印象加剧,并存在辱人内容和居高临下的回应,这对非 “标准” 语言使用者产生了潜在的伤害。
Jun, 2024
ChatGPT 的研究探索大型语言模型在媒体偏见检测方面的效力,结果显示 ChatGPT 在检测仇恨言论和文本级别上的情境偏见方面与精细调校的模型表现相当,但在其他偏见检测方面(包括虚假新闻、种族、性别和认知偏见)遇到困难。
Mar, 2024
我们通过比较人类和 ChatGPT 简化的文本,使用 14 个反映文本难度的指标,评估 ChatGPT 的简化性能,并找到简化的文本与人类简化文本之间存在较高的相似性。医学领域的专家评估显示出对 ChatGPT 风格的偏好,但文本内容的保留程度较低。
Apr, 2024
ChatGPT(GPT-3.5)是一个大型语言模型,该研究调查了 ChatGPT 中的国籍偏见,通过分析自动生成的论述,发现其生成的文本表现出真实世界中的国籍偏见,强调了对大型语言模型中潜在偏见的进一步审查的必要性。
May, 2024
本文探讨大规模语言模型(如 ChatGPT)中固有偏见的挑战和风险,讨论其起源、伦理问题、缓解偏见的潜在机会、在虚拟助手、内容生成功能和聊天机器人中部署这些模型的意义以及如何鉴别、量化和缓解语言模型中的偏见,强调了需要跨学科的合作来开发更公正、透明和负责任的人工智能系统。
Apr, 2023
研究使用 ChatGPT 将市民导向的行政文本翻译成了德语简化易语言,使用语言和整体两种策略进行翻译,并对生成的文本进行质量分析,发现生成的文本比标准文本更易于理解,但仍未完全符合规定的简化易语言标准,而且内容有时不正确。
Aug, 2023
通过监督分类的方法,我们开发了一种方法来辨别人工智能生成的文本和学术科学家的文本,其中包含 20 个特征,最终建立了一个模型准确地判断了文本的作者,使得误分类文档的数量减少至原来的 1/20。
Mar, 2023
ChatGPT 是最流行的语言模型之一,在各种自然语言任务上表现出色。本研究的目的是全面调查这些方法在分布偏移下的泛化行为,包括提示、文本长度、主题和语言任务,从而为 ChatGPT 检测的未来方法或数据收集策略的开发提供指导。
Oct, 2023
使用 ChatGPT 生成综合训练数据提高去偏置大型语言模型的方法表明,可以在降低计算成本、数据限制和多任务语言能力降低的情况下,有效地减少大型语言模型的社会偏见,并具有跨类别的去偏置性能。
Feb, 2024