动物友好人工智能的论证
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
本文回顾了人工智能中的哲学挑战、伦理和完整性风险,探讨了 AI 语言模型作为研究工具和研究主题的作用及其对科学家、参与者和评审人的伦理影响,并给出了十个建议以对更负责任的 AI 语言模型研究进行回应。
May, 2023
研究表明,ChatGPT 和大型语言模型在科学的管理、创造和分析任务方面具有转化潜力,但需要通过积极的监管和科学教育来解决与偏见、错误信息和质量保证相关的风险。
Jun, 2023
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以 GPT3.5 / ChatGPT3.4 和 ChatGPT 4 为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023
本文探讨了人工智能语言模型 ChatGPT 的伦理问题,重点是偏见和隐私方面的考虑,并提出与 ChatGPT 相关的各方实践准则以促进其伦理使用。
May, 2023
在 ChatGPT、Gemini 和其他大型语言模型(LLMs)的普适型系统时代,迫切需要公平的人工智能。然而,人工智能与人类交互的复杂性及其社会影响引发了公平标准如何应用的问题。我们回顾了机器学习研究人员用于评估公平性的技术框架,如群体公平性和公平表示,并发现它们在应用于 LLMs 时存在固有的局限性。为了应对这些挑战,我们提出了实现特定应用案例公平性的指南:上下文的重要性,LLMs 开发者的责任以及需求利益相关者在设计和评估过程中的参与。此外,利用 AI 系统的普适能力作为可扩展的 AI 辅助调整方法可能最终可能成为可能,并且甚至是必需的。
May, 2024
人们对人工智能系统的道德评价是否与人类生成的道德评价相似的问题对于人工智能的进展具有重要意义。我们进行了一项改编自 Allen 等人(2000)提议的改进型道德图灵测试(m-MTT),通过要求参与者区分真实的人类道德评价和由一个流行的先进 AI 语言模型 GPT-4 进行的评价,代表性的 299 名美国成年人首先在对源泉不知情的情况下对道德评价的质量进行了评分。他们惊人地发现,在几乎所有维度上,包括美德、智力和可靠性,他们评价 AI 的道德推理质量高于人类的,这与 Allen 等人所称的相对 MTT 相一致。接下来,在确定每个评价的来源(人类还是计算机)的任务中,人们的表现明显高于偶然水平。虽然 AI 没有通过这个测试,但不是因为它的道德推理不如人类,而是可能因为它的被认为是卓越的特质以及其他可能的解释。能够产生被认为在品质上优于人类的道德回应的语言模型的出现引起了人们对人们可能不加批判地接受可能有害的道德指导的担忧。这种可能性突显了在道德问题上对生成语言模型进行保护的必要性。
Apr, 2024
本研究通过系统调查、基于文本挖掘的全球和国家指南、独立研究以及八十所大学层面的指导,提供了对教育中生成式人工智能(GAI)和大型语言模型(LLMs)的机会和挑战进行细致的理解。研究强调了在这些技术的整合过程中平衡方法的重要性,以 harness 利用其技术优势的同时,考虑伦理问题,并确保公平的获取和教育结果。最后,本文提出了促进负责任创新和道德实践,指导将 GAI 和 LLMs 整合到学术中的建议。
May, 2024