基于项目反应理论的R模块用于算法组合分析
本文提出一种基于心理度量学中的项目反应理论(IRT)的替代手段,用于生成金标准测试集和NLP系统的评估,通过实验证明IRT方法能提供更为全面的系统性能评估,并能更好地说明系统性能。
May, 2016
py-irt是一个Python库,用于拟合贝叶斯项目反应理论(IRT)模型,运用在IRT任务和理想点模型中,建立在Pyro和PyTorch框架之上,并使用GPU加速训练来扩展到大型数据集。
Mar, 2022
在本文中,我们提出了一个基于修改过的IRT模型的框架,用于评估算法组合在数据集存储库中的性能,同时揭示算法性能的重要方面,例如一致性和异常性。我们测试了这个框架在广泛应用的算法组合上,展示了这种方法作为一种具有洞察力的算法评估工具的广泛适用性,并且IRT参数的可解释性提供了对算法组合的更深入理解。
Jul, 2023
Item Response Theory (IRT) models leverage coresets for scalable learning of latent abilities and difficulty characteristics in the context of large-scale assessments and data analysis problems.
Mar, 2024
本研究解决了AI研究中算法评估不足的问题,尤其是在有限算法集中的强弱对比。通过引入基于项目反应理论的AIRT-Module工具,该工具利用算法性能指标计算算法的异常性、一致性和难度上限,从而可视化算法的优势与劣势。研究发现,AIRT-Module能够提供对算法能力的深入理解,有助于提升AI方法的综合评估。
Aug, 2024
本研究解决了传统混淆矩阵评估指标如精确度和F1评分的局限性,这些指标未能考虑数据复杂性和结果质量。通过引入项目反应理论(IRT),本文提出了一种补充传统指标的新方法,以便更好地评估模型在实例级别的表现,并发现IRT分数在66%的传统指标分析中具有显著不同的贡献,表明其在模型选择中的潜在影响。
Sep, 2024
本研究解决了计算机视觉中模型和数据集评估的不足,尤其是单一准确率指标的问题。通过引入项目反应理论(IRT),该论文提供了一种新的评估方法,允许对多个模型和数据集项进行更丰富的分析。最重要的发现是,IRT能够有效提高模型校准和数据子集选择的能力,从而增强模型和数据集的比较分析。
Sep, 2024
本研究解决了传统混淆矩阵评价指标(如精度和F1分数)只提供定量分析而忽视数据复杂性和结果质量的局限性。创新性地引入了心理测量指标,如项目反应理论(IRT),为混淆矩阵增添了评估隐性特征的新层面,显著提高了举例分析的能力。研究发现,IRT评分与66%经典指标的贡献存在97%的信心,表明这一方法的潜在影响力。
Sep, 2024
本研究解决了传统项目反应理论(IRT)模型在计算机自适应测试(CAT)中校准效率低的问题。提出了一种多阶段拟合程序,利用自动化机器学习工具加速建模过程,显著提高了模型的校准性和预测性能。研究结果表明,该方法在Duolingo英语测试中相比现有方法表现出更高的准确度和更好的分数预测。
Sep, 2024
本研究解决了在智能辅导系统中,如何有效评估语言学习者能力的问题。我们提出了一种新颖的方法,通过将练习中的学习者数据转化为可用于项目反应理论(IRT)建模的形式,从而实现对学习者能力的准确评估。结果表明,基于练习的能力估计和传统测试的结果同样准确,具有重要的应用潜力。
Sep, 2024