多模态、可解释的人工智能驱动的聊天机器人辅导系统中的信任与道德考虑:以共同解决魔方为例
本研究关注于采用多模态人工智能实现诸如完成句子或回答问题等任务,探讨其伦理评估的挑战,并通过互动式人类反馈创造一个多模态伦理数据库,然后利用该数据库构建算法对模型的道德性进行自动评估,包括 RoBERTa 和多层感知器分类器等。
Apr, 2023
该研究通过设计并评价了一种 AI 驱动的多任务聊天机器人,在计算机科学教育中提升学习体验、促进学生参与。研究采用设计研究方法,开发了一个新型学习环境,其中包括指导机器人、同伴机器人、职业规划机器人和情感支持机器人四个不同的聊天机器人角色,通过满足学生的能力、自主和关联性等三个内在心理需求,以探究为基础的学习模式鼓励学生提问、寻求解决方案和探索好奇心。研究通过在一个月内与 200 名参与学生进行高等教育环境测试,将结果与人类导师和单一聊天机器人条件进行对比。研究运用混合研究方法,包括聊天记录序列分析、调查和焦点小组访谈等定量和定性手段。通过整合先进的自然语言处理技术,如主题建模和情感分析,提供了对该系统对学习者参与度、动机和探究型学习的深入理解。该研究通过其严格的设计和创新的方法,为 AI 驱动的多任务聊天机器人在重塑计算机科学教育以及创建引人入胜、支持性和激励性学习环境的潜力提供了重要见解。
Aug, 2023
该研究调查了不同人群(包括学生、教师和家长)对教育中不同人工智能应用的可接受性,关注数据隐私、透明度、解释能力和人工智能的道德运用等问题。通过虚拟场景研究方法,参与者对四种人工智能应用场景的感知进行评估,结果发现接受和信任人工智能在不同利益相关者群体之间存在明显差异,其中全球效用、公正和信心是影响人工智能的接受程度和使用意愿的关键中介因素。该研究强调了人工智能在教育领域的接受是一个多方面、复杂的问题,需要综合考虑具体的人工智能应用及其特点与不同利益相关者的感知。
Feb, 2024
AI 工具在网络安全领域的出现带来了诸多机遇和不确定性。一项针对网络安全领域高级研究生的焦点小组讨论揭示了挑战和机遇的潜在深度和广度。主要问题包括获取开源或免费工具、文件文献、课程多样性以及明确的人工智能网络安全教育伦理原则的表达。解决 “黑匣子” 思维在人工智能网络安全工作中的问题至关重要,同时还需要更加深入和优先教授基础人工智能知识。系统思维和有效沟通也被认为是教育改进的相关领域。未来的人工智能教育家和从业者需要通过实施严格的技术培训课程、明确的文件文献和用于伦理监控人工智能的框架,结合批判性思维和系统思维和沟通技巧来解决这些问题。
Nov, 2023
人工智能从实验室科学转变为实际人类环境,引发了许多历史、社会文化的偏见、不平等和道德困境。人工智能教育(AIED)提出了更多特定的挑战,涉及技术对用户的影响,这些技术如何用于加强或改变我们学习和教学的方式,以及作为社会和个体,我们对教育结果的价值观。该文章讨论了人工智能的关键伦理维度,并将其置于 AIED 设计和工程实践中,以建立我们所构建的 AIED 系统、我们提出的有关人类学习和发展的问题、我们使用的教学伦理以及我们通过 AIED 在更广泛的社会技术系统中提倡的价值观之间的联系。
Mar, 2024
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
本文探讨了与人工智能进行的教育交流,不是作为提示和回应的序列,而是作为对话和探索的社交过程,在其中,学习者在互联网工具和资源的动态计算介质中不断与 AI 语言模型交谈。本文强调了构建用于教育的社交生成 AI 是需要开发强大的 AI 系统的,这些系统可以与人类以及彼此对话,构建如知识地图之类的外部表征,访问和贡献于互联网资源,并担任教师、学习者、导师和指南的角色。但人们也需要考虑将如何设计和约束这些社交生成 AI,以确保其意识到其限制、对学习者和互联网的尊重并尊重人类教师和专家的完整性的问题。
Jun, 2023
这篇论文探讨了人工智能等技术在决策敏感的应用中,遵循数据隐私、可解释性、鲁棒性、推理等原则,同时着重探讨在结构化数据的应用方面如何设计可靠的方法来确定和使用相关变量进行决策。
Oct, 2022