自动摘要评估的对比研究和框架:LangChain 与混合算法
我们的研究旨在揭示自动论文评分(AES)模型的准确性、公平性和泛化能力之间的复杂关系,为开发真实教育中的有效 AES 模型提供实用洞察。
Jan, 2024
本文探讨了使用不同的语言学特征在自动写作评分中预测性能的问题。研究结果表明,虽然使用这些特征可以得到良好的预测模型,但每个数据集的最优特征不同。
Dec, 2016
本文通过比较两种强大的语言模型 BERT 和 XLNet 以及传统模型(词袋和 LSTM),阐述了其神经网络架构,并使用线性代数符号和图表解释了 transformer 机制构架的优势,最终在 Kaggle AES dataset 中实现了超出人类水平的准确度。
Sep, 2019
使用大型语言模型辅助对反事实干预的改进方法揭示了自动作文评分方法在评分机制上的不足,并展示了大型语言模型在与评分标准更全面地对齐方面的优势,同时也能识别反事实干预进行反馈,提高了对神经自动作文评分方法的理解,对其他追求模型驱动决策透明性的领域也具有应用潜力。
May, 2024
研究了使用自然语言处理 (NLP) 进行自动文章评分 (AES) 在英语中被广泛探索,而在印地语等低资源语言中尚未被探索的现状,并在印地语领域复现和比较了 AES 的最新方法。
Feb, 2023
我们开发了两个模型,通过对两个大型数据集进行微调和其他策略,自动评分英文文章的多个维度,结果显示我们的系统在精确度、F1 得分和 Quadratic Weighted Kappa 三个标准下取得了卓越的性能,并且在整体评分中优于现有方法。
Jun, 2024
研究调查了大型语言模型(LLMs),特别是 GPT-4 和经过精细调整的 GPT-3.5 作为自动作文评分(AES)系统的工具的有效性。实验结果显示 LLM-based AES 系统具有卓越的准确性、一致性、泛化能力和可解释性,并超越传统评分模型,同时也提高人工评分员的表现。
Jan, 2024
通过生成式大型语言模型和抽象总结以及标准驱动的比较终点,该研究开发了一种能够在不同领域进行高效信息比较的系统,利用语义文本相似性比较生成基于证据的分析,克服了模型推理中的信息上下文和令牌限制的困难,提供了可行的结果并实现了自动化的大规模信息比较。
Apr, 2024
研究发现 CNN / DailyMail 和 BBC XSum 数据集的参考摘要存在噪音,因为这些摘要主要存在于事实幻觉和信息冗余方面。为了解决这个问题,他们提出了 “Summary Chain-of-Thought(SumCoT)” 技术,通过逐步摘要的方式生成细粒度的摘要。利用新的测试集,研究人员观察到 LLM 具有惊人的零 - shot 摘要能力,该技术旨在使他们将更细粒度的细节集成到与人类写作方式相关的最终摘要中。实验结果表明,该方法在两个数据集上的 ROUGE-L 优于现有技术。
May, 2023
研究 AES 中的对手输入问题,提出了基于神经网络的局部连贯模型,与现有 AES 模型联合训练,实现了对对手输入的有效识别,从而提高了神经作文评分模型的准确性。
Apr, 2018