前向链与后向链相结合的元认知技能习得和迁移
本文研究了一种在智能逻辑辅导员中教导学生如何倒退式思考策略,从而提高学生的分目标方法和解决问题的能力的培训策略,并分析了学生在培训过程中的经验,表现和证明建设方法。结果表明,训练了倒退式工作示例和解决问题的学生在独立解决新问题时表现更佳,而且在证明建设中推导出的分目标的效率也更高。
Jul, 2022
这篇论文研究了如何通过干预方法来帮助学生学习如何在逻辑教学中使用最佳求解策略,并通过使用反向链接策略教授概率教程来比较干预效果。结果表明,教育干预方法“Nudge”能够提高学生的学习成绩。
Mar, 2023
通过比较经典人工智能方法和深度强化学习方法在元认知干预方面的应用,本研究在两个学期内进行两项课堂实验证明,DRL适应性干预对缩小学生元认知技能差距具有显著作用,而静态分类器的干预只有在事先了解如何使用逆向链策略的学生中才有益处。此外,本研究所涉及的DRL代理在两个ITS上令实验学生显着超越其对照组同学。
Apr, 2023
本研究使用了深度强化学习的方法,在智能辅助教学系统中为学生提供适应性元认知干预,从而填补了三种不同类型知识之间的差距,有效提高了学生的学习表现。
Apr, 2023
本文介绍了一种名为Symbolic Chain-of-Thought Distillation (SCoTD)的方法,在巨大的语言模型的注释和参数的指导下,训练参数远低于50B的较小模型,在几种常识基准测试中证明了在有监督和少样本学习环境下可以提高性能。
Jun, 2023
最近的大型语言模型 (LLMs) 的前进使得思维链 (CoT) 提醒的紧急能力增加,它是一种在问题和答案之间添加中间的合理步骤来构造提示的合理推理策略。在这些提示的条件下,LLMs 可以有效地学习上下文以生成比直接回答相同问题更准确的答案所需的合理性。为了设计LLM提示,有一个重要的设置,称为演示选择,它考虑从示例库中选择演示。现有的方法使用各种启发式方法进行选择,但对于涉及独特合理性的CoT提示而言,基于CoT合理性所需的固有技能进行选择至关重要,例如数学问题的加减法技能。为了解决这个要求,我们介绍了一种称为“推理技能发现”(RSD)的新方法,它使用无监督学习创建合理性的潜在空间表示,称为推理技能。同时,RSD学习一个推理策略来确定给定问题所需的推理技能。这可以指导演示所需的推理技能的选择。我们的方法具有几个理想的特性:它在理论上是有依据的,它需要较少的样本,不需要LLM推断或手动提示设计,且与LLM无关。从经验上看,RSD在多个推理任务中的答案准确性方面优于现有方法多达6%。
Dec, 2023
研究证明通过问题解决中的自我调节对学习的重要性,该研究通过学习分析主要关注学生在整体学习过程中运用的自我调节行为,而有限的研究涉及到学习者在实时表现中的差异,通过智能辅导系统研究了学生在化学计量学中的自我调节行为与实时表现之间的关系,通过AI生成的思考记录检测SRL行为,发现了四个SRL类别(信息处理,规划,执行和意识到错误)的存在与否,且考虑到学生使用的SRL的存在,频率,循环特征以及最近性与学生在多步问题中的后续表现之间的关系,结果显示在自我调节循环的处理阶段,学生的行动表现出了比较低的实时正确性,我们讨论了系统重新设计的机会来增加处理阶段的SRL支持以及基于思考记录数据的SRL评估速度研究的发展方向。
Dec, 2023
介绍了利用大型语言模型进行指令调优的最新进展,提出了一种双向指令调优策略,通过前向和后向推理任务来改善语言模型对数学推理的理解与执行能力。通过广泛实验证明,这种策略适用于多种数学推理任务并具有领域通用性。
Mar, 2024
这篇论文研究了最新的语言模型(LLMs)在数学推理中所具备的元认知知识,包括能够给数学问题分配合理的技能标签,并通过语义聚类获取更粗略的技能标签。通过相关实验,验证了这些技能标签对LLMs的推理过程的意义和相关性。
May, 2024