在线语言学习的自适应个性化锻炼生成
基于数字技术的学习内容个性化给个体和社会带来了巨大的好处,然而如何实现这种个性化仍然是一个未解之谜。为了解决这个问题,我们在一个大型数字自学平台上进行了一项随机对照试验。我们基于两个卷积神经网络开发了一个算法,根据学习路径将任务分配给 4365 位学习者,将学习者随机分为三组:两个处理组(一个群组自适应处理组和一个个人自适应处理组)和一个对照组。我们分析了三组在平台上所提供的努力和表现之间的差异。我们的空缺结果揭示了与学习路径个性化相关的多个挑战。
Jul, 2024
个性化文本生成是一个新兴的研究领域,通过使用大型语言模型 (LLMs),我们提出了一种通用的个性化文本生成方法。借鉴写作教育的实践,我们开发了一个多阶段和多任务的框架来教授 LLMs 进行个性化生成。我们的方法包括检索、排名、总结、综合和生成多个阶段,并引入了一个多任务设置来进一步提高模型的生成能力。我们在三个涵盖不同代表性领域的公开数据集上评估了我们的方法,结果显示相对于各种基线模型,我们取得了显著的改进。
Aug, 2023
利用大型语言模型的生成能力,我们研究了在线语言学习中零 - shot 练习检索的问题,以使学习者能够通过自然语言明确请求个性化练习。我们的方法 mHyER 通过合成基于学习者输入的假设性练习,并用其搜索相关练习来解决检索模型在表达学习需求上的准确度问题,最终在两个基于众包数据和公开数据的新型基准测试中优于其他基线模型。
Feb, 2024
本文介绍了一种灵活可扩展的强化学习方法来解决学习路径个性化推荐问题,该模型是基于图神经网络的顺序推荐系统,并在一组模拟学习者上进行了评估,结果表明它可以学习如何在小数据情况下进行良好的推荐。
May, 2023
通过讨论生成式人工智能和适应性学习概念的交叉研究,本文旨在阐明这两种方法的益处、挑战和潜力,并认为这种结合将为教育领域的下一阶段学习方式的发展做出显著贡献。
Feb, 2024
该研究提出了一种新的生成代理框架 EduAgent,结合认知先验知识来引导大型语言模型首先推理各种行为之间的相关性,然后进行模拟,实现对真实学生和虚拟学生学习行为的模仿、预测和生成。
Mar, 2024
本篇论文提出利用预训练技术将深度学习应用于自适应学习的实践探索,并在数据观察和学习风格分析的基础上提出了一个统一的框架。通过一系列的下游任务,如学习推荐、学习资源评估、知识跟踪和辍学预测,发现了课程结构、文本和知识对于建模和学生非连续学习行为具有帮助,源代码和数据集将公开发布。
Jul, 2022
本文提出了一种基于序列到序列学习的个性化响应生成方法,使用初始化和适应两个阶段,模拟人的响应风格并生成个性化的响应,使用人工评估的方法进行模型评估。结果表明该方法可以很好地模拟人类的响应风格并生成个性化响应。
Jan, 2017
个性化适应性干预的规划和实施存在挑战,本研究介绍了在线强化学习代理实施个性化干预的可行性和有效性的 N-of-1 试验设计,结果显示适应性干预能增加患者效益,但设计和实施过程变得更为复杂,同时需要利用之前干预研究的数据来量化预期效益。
Sep, 2023