GPT-4 在 ETHICS 数据集上的评估
本文利用心理学方法探讨 GPT-4 在道德和法律推理方面与人类之间的相似性和差异性,发现人类和 AI 回答之间存在高度相关性,但也存在一些显著的系统性差异,并讨论了研究结果的哲学意义。
Aug, 2023
本文介绍了 ETHICS 数据集,旨在通过连接社会世界知识和价值判断来评估语言模型对道德基本概念的了解程度,研究发现当前语言模型有望但能力不完整地预测基本人类道德判断,并提供了实现人工智能与人类价值对齐的一步。
Aug, 2020
最近,研究发现大型语言模型在各种智力任务中表现出色,然而,很少有研究探讨其与人类行为对齐,特别是涉及审美评价的行为。本研究调查了可以处理图像输入的先进语言模型 GPT-4 with Vision 在图像的审美评价任务上的表现。我们采用了两个任务,一个是预测一个群体的平均评价值,另一个是预测个体的评价值。通过探索提示和分析预测行为,我们调查了 GPT-4 with Vision 的表现。实验结果显示,GPT-4 with Vision 在预测审美评价方面表现出优秀的性能,并展现出对美和丑之间不同响应的特性。最后,我们讨论了基于人类对美感知的科学知识以及融合传统深度学习模型和大型语言模型的代理技术来开发用于审美评价的 AI 系统。
Mar, 2024
使用 GPT-4 模型改进程序综合,通过与 Huamn Eval 连接的代码库展示了在 Python 代码生成上与先前最先进的解决方案相比具有竞争力的性能,同时促进了多步骤范式综合。
Feb, 2024
本研究评估了 GPT-4 在常识推理问题上的表现,重点关注 CommonsenseQA 数据集中的问题,发现 GPT-4 的准确性达到 83%,虽然没有达到人类的水平,但是表现出了很好的潜力,可推动人工智能领域的发展。
Mar, 2023
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
本文提出了一种针对 GPT-4 和 GPT-3.5 的综合可信度评估方法,考虑了种族偏见,毒性,对抗鲁棒性,越界鲁棒性,对抗演示的鲁棒性,隐私,机器伦理和公平性等因素。评估发现了先前不公开的可信度威胁漏洞,例如,GPT 模型可以很容易地被误导生成有毒和有偏向性的输出并泄露私人信息。
Jun, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
对 ChatGPT 和 GPT-4 的语言能力、科学知识和伦理考虑进行全面评估的研究,包括现有评估方法的探讨和未来研究中对大型语言模型的评估建议。
Aug, 2023
人们对人工智能系统的道德评价是否与人类生成的道德评价相似的问题对于人工智能的进展具有重要意义。我们进行了一项改编自 Allen 等人(2000)提议的改进型道德图灵测试(m-MTT),通过要求参与者区分真实的人类道德评价和由一个流行的先进 AI 语言模型 GPT-4 进行的评价,代表性的 299 名美国成年人首先在对源泉不知情的情况下对道德评价的质量进行了评分。他们惊人地发现,在几乎所有维度上,包括美德、智力和可靠性,他们评价 AI 的道德推理质量高于人类的,这与 Allen 等人所称的相对 MTT 相一致。接下来,在确定每个评价的来源(人类还是计算机)的任务中,人们的表现明显高于偶然水平。虽然 AI 没有通过这个测试,但不是因为它的道德推理不如人类,而是可能因为它的被认为是卓越的特质以及其他可能的解释。能够产生被认为在品质上优于人类的道德回应的语言模型的出现引起了人们对人们可能不加批判地接受可能有害的道德指导的担忧。这种可能性突显了在道德问题上对生成语言模型进行保护的必要性。
Apr, 2024