知识标记对于当代智能教育应用具有关键作用,本文探索采用大型语言模型(LLMs)自动化该任务,展示了 LLMs 在数学问题知识标记任务上零次和少次检测结果的强大性能,并通过提出基于强化学习的示范检索器,成功利用不同规模的 LLMs 实现更优异的性能结果同时保持上下文演示使用的高效性。
Jun, 2024
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
本研究提出 LABS 模型,结合标签 - 语义注意力和多标签平滑技术,旨在改进对数学问题知识点的自动标记。实验证明,LABS 模型应用于 K12 数学问题时,利用文本分类技术和数学文本的特殊元素能够最大化地提高模型的分类准确性及预测性能。
Aug, 2022
本研究探索了大型语言模型在教育应用中的能力,重点关注概念图恢复和问题回答。研究通过引入 TutorQA,一个新的专家验证的自然语言处理基准,评估了大型语言模型在领域特定的概念图和问题回答中的性能,证明其零 - shot 概念图恢复具有竞争力,且 CGLLM 生成的答案具有更精细的概念。
Feb, 2024
通过研究大语言模型在教育应用中的潜力,该论文探讨了如何利用大语言模型提供适应性反馈来帮助学生学习数学,并提出了与此相关的挑战。
Oct, 2023
利用开源 LMMs 进行(半)自动化构建知识图谱的可行性研究以及深度学习方法的知识图谱构建
Mar, 2024
大型语言模型可用于定量信息检索,以帮助数据分析任务,如贝叶斯模型的先验分布以及缺失数据的插补。我们提出了一个提示工程框架,将大型语言模型视为科学文献的潜在空间界面,并与其他已建立的方法进行比较。同时讨论了使用大型语言模型作为 “专家” 的影响和挑战。
教师数学内容知识(CK)对于教师专业发展(PD)计划至关重要。我们提出了基于多智能体 LLMs 的框架,LLMAgent-CK,用于在没有人工注释的情况下评估用户反馈与确定的 CK 学习目标的一致性,并展示了在实际数学 CK 数据集 MaCKT 上有希望的 CK 识别表现。
通过引入一种新的模型无关框架,该框架可以学习定制输入标签来调节语言模型,并明确区分任务领域和任务功能,从而使得模型在特定领域中能够实现零样本泛化,并在预测蛋白质或化学性质以及建模药物靶标相互作用等专业领域中,超过专业为这些任务量身定制的模型的性能。
我们使用 GPT-4 为高等教育课程中的化学和电子学习的多项选择题生成知识组件 (KCs),并通过三名领域专家的评估,分析了大型语言模型 (LLM) 生成的 KCs 与人工生成的 KCs 之间的差异。评估结果显示,非匹配的 KCs 中,评估者有统计显著性地倾向于选择 LLM 生成的 KCs。我们还开发了一个本体归纳算法,根据题目内容将评估相似 KCs 的问题进行聚类。该研究推进了自动化生成和分类评估项目中的 KC,减轻了对学生数据或预定义 KC 标签的需求。
May, 2024