ChatGPT4PCG 比赛:为科学鸟类生成类似角色的级别
该研究论文介绍了 2024 年 IEEE 游戏会议上的第二届 ChatGPT4PCG 竞赛,它旨在推动和探索面向程序化内容生成的提示工程。通过引入多样性度量、允许提交 Python 程序以及改进评估流程等措施,该竞赛旨在解决第一届竞赛中的限制问题,同时对新度量和改进评估器的有效性进行评估,并通过消融研究选择函数签名来指导 ChatGPT 进行关卡生成。
Mar, 2024
这篇文章研究了 ChatGPT3.5 和 ChatGPT4 在大学物理中表现的能力,表明 ChatGPT3.5 可以达到甚至超过完成一学期大学物理的学生的中位数表现,而 ChatGPT4 的表现则已接近专业物理学家的水平。
Mar, 2023
本文采用定量方法,展示 ChatGPT 在回答涉及本科计算机科学课程相关主题的不同类型的问题时高度不可靠,揭示学生盲目依赖 ChatGPT 完成作业和考试可能面临自我破坏。同时提出对学生和教师的建设性建议。
Apr, 2023
OpenAI 最近发布了 GPT-4(也称为 ChatGPT plus),它被证明是生成 AI(GAI)的一小步,但对于人工智能(AGI)来说是一大步。该研究对 ChatGPT 进行了全面的技术、应用和挑战的综述,并展望了 ChatGPT 未来如何实现通用 AIGC(即 AI 生成的内容),这将是 AGI 发展的重要里程碑。
Apr, 2023
本研究论文讨论了将人工智能用于高等教育中的教学与学习,并以 ChatGPT 作为工具,以计算机科学基础编程课程为例进行了教学和评估的探讨,结果显示使用 ChatGPT 的学生在得分上有优势,但提交的代码存在不一致和不准确的情况。
Apr, 2023
本研究通过探索 OpenAI 的 ChatGPT 在解决不同类型的物理问题方面的能力,发现 ChatGPT 在解决给定完整数据的问题上的成功率为 62.5%,而在未给定全部必要数据的实际问题上的准确率下降至 8.3%。该研究提出了关于如何利用增强学习模型的教材来提升 STEM 教育的启示,并为人工智能的优势和局限性提供了见解,对于旨在利用该技术的教育工作者以及研究人员来研究问题解决和决策制定中的人工智能与人类协作框架有所贡献。
Oct, 2023
本文研究了 ChatGPT 在入门编程课程中生成不同难度程度的代码解决方案的能力,并发现 ChatGPT 能够独立解决一部分编程问题,但在复杂任务上遇到困难,结果为编程教育中应用 AI 工具的效用问题提供了新的观点。
Dec, 2023
该研究提出了一种适应性水平生成算法,用于 Angry Birds 物理解谜游戏。该算法基于先前的水平生成器,但难度可以根据玩家的表现进行调整,从而创造特定于玩家自身能力的个性化水平。我们使用多个具有不同策略和 AI 技术的智能体来评估所提出的方法的有效性,并将它们作为真实玩家特征的模型 / 代表,以便在大量生成中高效地优化水平属性。作为次要研究,我们还证明了通过将多个智能体的表现结合起来,可以生成对某些玩家特别具有挑战性但对其他玩家不具有挑战性的水平。
Feb, 2019
本文旨在评估人工智能工具 ChatGPT 在计算机工程学科中的表现;研究发现它可以回答关于概念的问题,但由于它是一种文字工具,所以无法处理需要用到图表和手工实验的问题。
Mar, 2023
使用巨大的语言模型建立了 ChatGPT,经 Kortemeyer 验证其在牛顿力学基础知识方面具有基本理解并达到专家水平,该结果对未来的物理教育和教学具有重要的启示。
Mar, 2023