学习在课堂中进行提示以理解 AI 的限制:一项试点研究
本文探讨了一种生成模型技术——来自大型语言模型的聊天机器人,并报告了一项将其应用于复杂学生作品的评估中的案例,然后讨论了生成AI的内在限制和潜在应用。
May, 2023
本文探讨了大型语言模型在教育中的转型作用和潜力,提出了利用人工智能进行辅助教学的七种方法,并介绍了实践策略来减少风险,并保证人工智能作为支持性工具而非替代品。
Jun, 2023
该研究论文探讨了大语言模型和聊天机器人结合应用于研究生工程教育的可能性,并通过一个研究案例证明了聊天机器人在课堂上的潜在优势,包括促进自主学习、提供即时反馈以及减轻教师负担。该研究还讨论了智能提示对聊天机器人性能的提升效果以及如何通过插件扩展聊天机器人的功能,同时强调在教育中使用这些人工智能模型所面临的挑战和伦理问题,并主张采取平衡的方法进行评估和改进。
Sep, 2023
本文探索大型语言模型在心理学应用中的前沿。大型语言模型如ChatGPT正在改变心理学研究的方式,并在认知与行为心理学、临床与咨询心理学、教育与发展心理学以及社会与文化心理学等多个领域发挥着影响,强调了它们模拟人类认知和行为的潜力。该论文还讨论了这些模型在心理学方面的能力,提供了创新工具用于文献综述、假设生成、实验设计、实验对象选择、数据分析、学术写作和同行评审。然而,尽管大型语言模型对推进心理学研究方法至关重要,但该论文也注意到了其技术和伦理挑战,如数据隐私、在心理学研究中使用大型语言模型的伦理影响以及对这些模型局限性的更深入了解的需要。研究人员应该负责任地在心理学研究中使用大型语言模型,遵守伦理标准,并考虑在敏感领域部署这些技术的潜在后果。总之,这篇文章全面概述了大型语言模型在心理学中的现状,探讨了潜在的好处和挑战。它号召研究人员在充分利用这些模型的优势的同时,负责任地解决相关风险。
Jan, 2024
OpenAI大型语言模型通过提示工程生成合成的虚假信息,本研究探讨了它们对情感提示的响应,并设计了实验来评估它们产生虚假信息的成功程度,研究发现OpenAI的所有语言模型都能成功产生虚假信息,并且它们有效地对情感提示作出回应,表明它们在文本生成中对情感暗示有细致的理解。当礼貌地发出提示时,所有检查的语言模型都会以高频率生成虚假信息,相反地,当不礼貌地发出提示时,虚假信息的产生频率减少,模型通常拒绝产生虚假信息,而是提醒用户该工具不用于此类目的。这项研究对于关于负责任的AI技术开发和应用的持续讨论具有重要意义,尤其是在减少虚假信息传播和促进AI生成内容的透明度方面。
Mar, 2024
通过分析大学教师对人工智能语言模型的经验和态度,本研究填补了文献中对人工智能在教育中的应用以及其对教学和学习的潜在影响的研究空白。该研究调查了高等教育中语言模型和生成式人工智能工具的意识水平、整体态度以及影响这些态度的因素。研究结果显示,教育工作者对这些工具的认识程度逐渐增加,总体上持积极态度。教学风格与对生成式人工智能的态度之间没有相关性。最后,相较于其他领域的教育工作者,计算机科学教育工作者对生成式人工智能工具在技术上的理解更有信心,对其持更加积极的态度,但在检测人工智能生成作品的能力上并不更有信心。
Mar, 2024
利用大语言模型在现代教育领域创新的机会,通过研究提问型大语言模型、语法错误解释和人力资源面试评估,揭示了大语言模型在改变教育实践中的潜力和限制。
May, 2024
本研究针对学校中欺凌问题的紧迫性,探讨了大型语言模型(LLMs)如何帮助学生辨别同伴互动中的欺凌与玩笑。研究表明,ChatGPT-4在实施代理方法后,展现出在特定上下文中的准确性,能够为脆弱学生提供实时支持,从而在教育环境中有效减轻欺凌带来的负面影响。
Jul, 2024