从指南到治理:教育领域人工智能政策研究
调查美国大学关于在教育中使用 ChatGPT 的学术政策和指南,发现大多数大学对生成式人工智能的整合持开放但谨慎的态度,并表达了他们对道德使用、准确性和数据隐私的担忧,提供了各种资源和指南,包括教学大纲模板 / 样本,研讨会和讨论,共享文章和一对一咨询,重点关注一般技术介绍、道德关注、教学应用、预防策略、数据隐私、限制和探测工具。
Dec, 2023
本研究旨在了解世界各地大学关于使用生成式人工智能工具(如 ChatGPT)所制定的政策以及影响其决策的因素,发现大学之间在 ChatGPT 政策上存在明显差异;其中三分之一的大学实施了 ChatGPT 政策,而大部分禁止其在评估中使用的大学允许教师自行决定是否使用,同时发现大学的学术声誉、所处国家(以英语为母语)、公众对 ChatGPT 的态度等因素与大学是否制定 ChatGPT 政策密切相关,同时探讨了大学面临的挑战。
May, 2023
通过研究 116 所美国高研活跃度大学产生的文件,全面了解高校为机构相关利益相关者提供的关于生成人工智能的建议与指导。基于我们的研究发现,大多数高校鼓励使用生成人工智能,并提供了详细指导,尤其是在课堂中的使用。然而,要注意的是,该研究建议教师指导的指南可能会加重其工作负担,因为往往需要对教学方法进行广泛的修订。
Jan, 2024
人工智能在教育领域带来了个人化学习的潜力,但也面临着作弊、准确性和教育工作者有效整合的问题。本研究通过运用 Technology Acceptance Model,评估教育工作者和学生对生成型人工智能的态度、使用模式和障碍,旨在深入研究这些问题,并为未来的研究提供过程指南。
May, 2024
该调查研究了生成性人工智能模型在教育领域的潜在应用和影响,并就教育环境中的实际应用、挑战和新兴趋势进行了综合和严格的评估,旨在为人工智能与教育之间的关系作出贡献。
Nov, 2023
这篇论文探讨了在高等教育领域使用 ChatGPT 所面临的伦理挑战,并使用 Arksey 和 O'Malley 的研究框架,结合 DeepMind 的伦理问题框架,通过分析相关研究,明确了 AI 在教育中的六个主要伦理问题,强调了信息错误和人机交互方面的危害,并呼吁教育工作者开展更多的实证研究以制定可靠的伦理政策。
Nov, 2023
该研究旨在通过研究文本生成 AI 技术的认知和影响,为高等教育制定一个 AI 教育政策,并从三个维度(教学、管理和运营)出发,提出 AI 生态教育政策框架,以解决在大学教学和学习中集成 AI 所涉及的多维问题,从而确保利益相关者了解其责任,并采取适当的行动。
Apr, 2023
本研究探讨了大学生对生成式人工智能 (GenAI) 技术(例如 ChatGPT)在高等教育中的看法,关注对技术的熟悉程度、参与意愿、潜在好处和挑战以及有效整合。从对香港来自不同学科的 399 名本科生和研究生的调查结果显示,学生普遍对利用 GenAI 进行教学和学习持积极态度。学生们认识到个性化学习支持、写作和头脑风暴的辅助以及研究和分析能力的潜力。然而,他们也表达了对准确性、隐私、伦理问题以及对个人发展、职业前景和社会价值的影响的关注。根据 John Biggs 的 3P 模型,学生的看法显著影响学习方法和成果。通过了解学生的看法,教育工作者和政策制定者可以量身定制 GenAI 技术,以解决需求和关注点,同时促进有效的学习成果。本研究的发现可以指导有关将 GenAI 技术集成到高等教育中的政策制定。通过了解学生的看法并解决他们的关注点,政策制定者可以制定明智的指南和策略,以负责任且有效地实施 GenAI 工具,从而增强高等教育的教学和学习体验。
Apr, 2023
研究论文探讨了生成人工智能(GAI)模型,如 ChatGPT,对大学生和高等教育机构的影响,采用综合调查和情景分析的混合方法,结果表明当前技术在学术上的使用对学生取得学业目标有积极帮助,但是技术的不负责任和过度使用可能会带来重大挑战,因此高等教育机构需要制定严格的政策、重新评估学习目标、提升讲师能力、调整课程并重新考虑考试方式。
Apr, 2024