欺骗性人工智能生态系统:以 ChatGPT 为例
本文探讨了使用 ChatGPT 作为生成 AI 所引起的道德问题,并基于人性化的人工智能(HCAI)框架提出了应对方法。使用 HCAI 框架来确保可靠、安全、值得信赖的人工智能,以减轻 ChatGPT 的误用或滥用,并推荐最佳使用(创意写作,非创意写作,教学和学习)。同时,强调了个体和社会福利的重要性。
Apr, 2023
该研究论述了 ChatGPT,这是一个利用主题建模和强化学习生成自然回复的人工智能聊天机器人。通过探索从 GPT-1 到 GPT-4 的升级路径,讨论模型的特点、局限性和潜在应用,该研究旨在揭示将 ChatGPT 融入我们日常生活中可能存在的安全、隐私和伦理问题,并分析这些领域的开放问题,呼吁共同努力确保安全和道德无可争议的大型语言模型的发展。
Jul, 2023
本文探讨了人工智能语言模型 ChatGPT 的伦理问题,重点是偏见和隐私方面的考虑,并提出与 ChatGPT 相关的各方实践准则以促进其伦理使用。
May, 2023
在这项研究中,我们探讨了 ChatGPT 在学术背景下的伦理影响、其局限性和特定用户群体可能的滥用情况,并提出了旨在防止不当使用和促进负责任的 AI 交互的架构解决方案。
Oct, 2023
ChatGPT 是一种基于 Transformer 架构的大型语言模型,能够在对话环境中生成类似人类的回答。它具有广泛的应用领域,但也引发了伦理和社会等方面的担忧。本文概述了 ChatGPT 的架构和训练过程,并提出了一些技术、监管、教育和伦理等方面的建议,以最大化其益处并尽量减少负面影响。
Feb, 2024
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
本研究审视了 ChatGPT 的心理原理和吸引用户注意力的因素,探讨了技术进步对教育的影响以及人类学习模式的演变,并引发了学术讨论,探讨技术是否驱动人类进化或相反。
Feb, 2023