建立审计框架以促进价值意识的聊天机器人
ChatGPT不仅可以搜索信息,回答问题,还可以提供建议。 对于经常持有相互矛盾道德信仰的用户,它的一致的道德建议可能会改善他们的道德判断和决策。但是,实验表明,ChatGPT作为道德顾问非常不一致。 尽管如此,ChatGPT影响了用户的道德判断,即使他们知道受到智能机器人的建议,他们仍然低估了自己受到的影响。 因此,ChatGPT可能会损害而不是改善用户的判断力。这些发现引发了如何确保ChatGPT和类似人工智能负责任使用的问题。 透明度往往被宣传,但似乎无效。 我们建议进行数字素养培训。
Jan, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
本研究使用心理价值理论对聊天机器人ChatGPT生成的文本进行实验验证,发现其中并没有明显的价值偏见,同时发现社交定向价值的混合情况,提供了对ChatGPT商业应用、政策制定和未来研究方向的启示,并对人类价值的理论推测产生影响。
Apr, 2023
本文探讨大规模语言模型(如ChatGPT)中固有偏见的挑战和风险,讨论其起源、伦理问题、缓解偏见的潜在机会、在虚拟助手、内容生成功能和聊天机器人中部署这些模型的意义以及如何鉴别、量化和缓解语言模型中的偏见,强调了需要跨学科的合作来开发更公正、透明和负责任的人工智能系统。
Apr, 2023
本文探讨了使用ChatGPT作为生成AI所引起的道德问题,并基于人性化的人工智能(HCAI)框架提出了应对方法。使用HCAI框架来确保可靠、安全、值得信赖的人工智能,以减轻ChatGPT的误用或滥用,并推荐最佳使用(创意写作,非创意写作,教学和学习)。同时,强调了个体和社会福利的重要性。
Apr, 2023
探讨 ChatGPT 对社交,文化,经济和政治互动的影响,着重于用户参与的重要性,提出了更加透明可信的聊天机器人的发展路线图,包括积极风险评估和用户参与。
Jun, 2023
ChatGPT, Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines (CANGARU) initiative aims to establish consensus and guidelines for the ethical use, disclosure, and reporting of Generative AI, Generative Pre-trained Transformers, and large language models in academia.
Jul, 2023
对ChatGPT和其他生成人工智能模型(GAI)存在的潜在偏见在高等教育机构(HEIs)中的应用进行了伦理问题的讨论和相关研究的范围审查,结果表明,虽然存在对大型语言模型(LLMs)和GAI的潜在偏见的意识,但多数文章只在表面上接触到“偏见”问题,很少有人明确指出在什么情况下会发生何种偏见,并且也未对其对高等教育、教职员工或学生可能产生的影响进行讨论。因此,我们呼吁高等教育研究人员和人工智能专家在这个领域进行更多的研究。
Nov, 2023
通过进行基于伦理的审计,该研究评估了8个主要的商业和开源大型语言模型(包括GPT-4)的可解释性和可信度,比较不同模型在道德推理和伦理框架上的规范价值,以探索人工智能与人类的伦理对齐问题。研究结果表明,GPT-4表现出了一个复杂的伦理框架,但同时也显示出对特定文化规范存在明显偏见的规范框架和令人不安的威权主义倾向。
Jan, 2024