知识标记对于当代智能教育应用具有关键作用,本文探索采用大型语言模型(LLMs)自动化该任务,展示了 LLMs 在数学问题知识标记任务上零次和少次检测结果的强大性能,并通过提出基于强化学习的示范检索器,成功利用不同规模的 LLMs 实现更优异的性能结果同时保持上下文演示使用的高效性。
Jun, 2024
基于大语言模型的知识概念标记在数学问题的自动标记任务中显示出潜力,由于其零 / 少样本学习能力,适用于教育场景中收集大规模、专业标记数据集所面临的挑战。
Mar, 2024
本文研究了自动短答案评分问题,提出了一种新的基于 MathBERT 及上下文学习方法的框架,并在真实数据集上进行了评估,证明该框架对于之前未见过的数学问题的表现优于现有方法。
May, 2022
提出了一种在学术文档中结构标记与分级注意网络相结合的方法,在学术文档的质量预测任务中实现了较好的结果,同时在预测引用数量方面也实现了一定的提升。
Apr, 2020
论文提出利用文本分类来辨别数学问题中的有关和无关句子,并提出了一种新颖的联合概率分类模型,其利用所有句子之间以及问题句子和其他句子之间的相关性和句子文本来估计数学问题中所有句子的分类决策的联合概率。结果表明,该模型和利用问题句子和其他句子之间的相关性的新型 SVM 分类器是有效的。另外,经验结果和分析表明,不删除停用词和利用词性标注虽然对数学问题类型分类相关任务有效,但对该任务并没有显著的改善。
Nov, 2014
该论文介绍了一种新方法 Quantity Tagger,用于解决算术问题,通过对数量打标签以自动发现隐藏的数学关系,进而生成方程以寻找解,并在两个数据集上相比之前的方法,分别取得了 5 和 8 点的准确率改进。
Aug, 2019
本论文通过构建基于软注意力机制的神经网络架构,分别在四个不同数据集上训练和测试,探究使用注意力或梯度可视化技术能否用于推断二元序列标记问题中的单词级标记,并得出结论:相比梯度 - based 方法,基于注意力的方法能够更准确地预测单词级标记。
May, 2018
通过使用文本分类技术来确定竞技编程问题的领域的方法,使用 LSTM、GRU 和 MLP 等多种模型对 Codeforces 网站上的 2400 个问题进行训练和测试,最高准确度达到 78.0%。
Aug, 2023
本文探讨了在专业领域文本分类中,预训练语言模型(PLMs)的使用是否有必要,通过比较在三个文本分类数据集上的各种模型的效果,发现对于专业领域文本分类任务,使用线性 SVM 分类器可以提供一种相当的、便宜的、可重现的、可解释的替代方案。
Mar, 2023
该论文提出了一种名为 TagRec++ 的模型,将在线学习系统中的问题按照其上下文进行分类,引入了密集的检索问题,采用了交叉注意力机制,优于现有方法,并考虑到了新的标签变化。
Aug, 2022