操纵问题:对认知代理能力的威胁,基于对话型人工智能
在这项研究中,我们探讨了 ChatGPT 在学术背景下的伦理影响、其局限性和特定用户群体可能的滥用情况,并提出了旨在防止不当使用和促进负责任的 AI 交互的架构解决方案。
Oct, 2023
研究人工智能(AI)系统的说服力,探讨其未来发展可能造成的影响,如信息泛滥,个性化说服等,并寻找禁止、真实自然语言生成、鉴别 AI 代理和法律补救等解决方案。
Mar, 2023
探讨 ChatGPT 对社交,文化,经济和政治互动的影响,着重于用户参与的重要性,提出了更加透明可信的聊天机器人的发展路线图,包括积极风险评估和用户参与。
Jun, 2023
本文探讨了使用 ChatGPT 作为生成 AI 所引起的道德问题,并基于人性化的人工智能(HCAI)框架提出了应对方法。使用 HCAI 框架来确保可靠、安全、值得信赖的人工智能,以减轻 ChatGPT 的误用或滥用,并推荐最佳使用(创意写作,非创意写作,教学和学习)。同时,强调了个体和社会福利的重要性。
Apr, 2023
生成式 AI 为语言学习提供了重要机会。AI 工具如 ChatGPT 可以通过书面或语音聊天提供非正式的第二语言练习,学习者可以通过提示指定对话参数,如熟练水平、语言风格和讨论主题。AI 可以被指导给出修正性反馈、创建练习题或制定扩展学习计划。AI 可以帮助教师构建各种媒体的学习和评估材料。然而,学习者和教师都需要理解 AI 系统的局限性,这些局限性源于它们对人类语言的纯统计模型,从而限制了它们处理语言使用中微妙的社会和文化方面的能力。此外,AI 系统的创建涉及道德问题,并且在使用中存在实际限制,尤其是对于弱势群体。AI 工具的能力和多功能性很可能使它们成为许多人生活中宝贵而常用的伴侣(类似于智能手机),创造出一种超越简单工具使用的紧密联系。生态理论如社会物质主义对于研究用户和 AI 之间产生的共同行动机制非常有帮助,以及来自原住文化的人 - 物关系视角。
Mar, 2024
研究调查了 745 名受访者,旨在了解不同应用中关于情感技能的期望和偏好。结果表明,在设计情感智能对话代理时,应根据应用的上下文和性质考虑适应性和情境感知。
Oct, 2023
计算思维与计算机编程具有学习曲线陡峭的特点。通过对话代理和生成式人工智能(genAI)的应用,可以提供个性化指导、互动学习体验和代码生成来促进学习过程。然而,目前基于 genAI 的聊天机器人主要面向专业开发人员,对教育需求的考虑可能不足够。因此,与教育者合作设计教育工具至关重要,本文通过设计虚构会话中的参与教育者洞察了一种具备指导学生分步练习、调整指导方法并关注教育背景、技能和学习偏好的对话代理,这些发现可为面向教授计算思维和计算机编程的辅导对话代理的未来实施提供指导。
Nov, 2023