ChatGPT 更容易被认为是男性而不是女性
本研究基于六种语言的研究,检验 ChatGPT 在翻译中性代词方面的准确性,发现 ChatGPT 在将中性代词转换为 'he' 或'she' 时会透过职业或行为刻板印象体现性别偏见,在其他语言无法正确地把英文中性代词 'they' 翻译为相应中性代词,在性别无关信息缺失的情况下存在性别偏见,建议未来的 AI 翻译工具设计者以人为本。
May, 2023
对 ChatGPT 进行了心理特征和文化价值的测量,发现其与真实人类存在差异,表现出文化偏见和刻板印象。未来的研究应加强技术监督和算法训练的透明性,促进跨文化交流和减少社会差异。
May, 2024
本研究比较了一个生成式人工智能工具 ChatGPT 与三个商业可用的基于列表和机器学习的性别推断工具(Namsor、Gender-API 和 genderize.io)在一个独特数据集上的性能表现,结果显示 ChatGPT 在有国家和 / 或姓氏信息可用时,表现至少与 Namsor 相当,并在女性样本上表现更好。尽管 ChatGPT 并非为此目的设计,但它可能是一种性别预测的成本效益工具,未来甚至可能更好地识别自报性别而不是以二进制标度报告性别。
Nov, 2023
本文通过分析超过 30 万条推文和 150 多篇学术论文,探究了 OpenAI 开发的聊天机器人 ChatGPT 在社交网络和学术领域中的感知和讨论,发现 ChatGPT 在社交网络中普遍被认为是高质量的,但随着时间的推移,快乐情绪略有下降。在学术论文中,ChatGPT 被认为是道德伦理和教育领域中伦理威胁和机会的同时存在,同时被认为在医疗领域具有重大机遇,聚焦当前的 ChatGPT 感知对未来的发展具有启示作用。
Feb, 2023
通过对捷克民众自我评估数据的分析,本研究探讨了一个通用聊天机器人 ChatGPT 在从短文本中有效推测个性特质方面的能力,结果显示其在人格特质推测方面与人类评估者具有竞争力,并揭示了 ChatGPT 在所有人格维度上存在的 ' 积极偏差 ',同时探讨了提示内容对其准确度的影响,从而对人格评估中人工智能的潜力和局限性进行了重要贡献。本研究强调了负责任的人工智能发展的重要性,并考虑了隐私、同意、自主权和人工智能应用中的偏见等伦理问题。
Dec, 2023
这篇论文通过对社交媒体讨论进行内容分析,调查了不同文化背景下训练的大型语言模型(LLM),如 ChatGPT 和 Ernie,对性别偏见的公众看法。研究发现,ChatGPT 在隐性性别偏见方面更常见,例如将男性和女性与不同的职业头衔联系在一起,而 Ernie 的回应中则存在明显的性别偏见,比如过分强调女性追求婚姻而非事业。根据研究结果,我们反思了文化对性别偏见的影响,并提出了规范 LLM 性别偏见的治理建议。
Sep, 2023
本文研究了机器学习模型在准确区分 ChatGPT 生成文本与人类生成文本时是否能够有效训练,使用可解释的人工智能框架来对模型进行了解释,研究发现采用 ChatGPT 重新短语生成能够使模型识别 ChatGPT 生成文本与人类生成文本之间的差异更具挑战性。
Jan, 2023
研究表明,不管用户界面版本如何,参与者倾向于将人类作者和由大型语言模型生成的内容归于相似的可信度水平。他们对于人工智能生成的内容并不认为其能力和可靠性有所不同,但评价人工智能生成的内容更加清晰和吸引人。本研究的发现呼吁在评估信息来源时更加谨慎,并鼓励用户在接触由人工智能系统生成的内容时保持警惕和批判性思维。
Sep, 2023
本文研究了大型语言模型(LLM),如 ChatGPT 在生物特征任务中的应用。我们具体探讨了 ChatGPT 在生物特征相关任务中的能力,重点关注人脸识别、性别检测和年龄估计。研究发现,ChatGPT 能够以相当高的准确性识别面部身份,并对性别检测任务表现出优异性能,对于年龄估计任务也有合理的准确性。这些发现揭示了使用 LLM 和基础模型在生物特征领域具有广阔应用潜力。
Mar, 2024