数据集效应的状态矢量框架
本研究回顾现有的摘要数据集的现状,研究了数据集的不同因素如何影响神经摘要模型的泛化行为,提出了数据集的几个性质,分析数据集的不同属性如何影响模型结构设计和训练方法的选择,并借鉴分析的经验重新思考了模型设计的过程。我们发现,深入了解数据集的特征可以带来显著的改进。
Sep, 2019
本论文提出了一个模型不可知的数据集评估框架,通过基于经典测试理论的统计分析,评估数据集的可靠性、难度和有效性等三个基本维度,并以命名实体识别为案例研究,介绍了 9 个统计指标用于评估数据集的质量,实验结果和人工评估验证了该框架的有效性,发现数据集质量对模型绩效有显著影响,因此在模型训练或测试前应进行数据集质量评估或针对性的数据集改进。
Dec, 2022
通过实证研究表明,深度学习模型中的深度支持向量(Deep Support Vectors,DSVs)类似于支持向量机(Support Vector Machines,SVM)中的支持向量,从而为解释模型的决策标准提供了一种切实可行的方法。此外,我们的发现表明,可以使用 DSVs 有效地重建模型,类似于 SVM 的过程。代码将会提供。
Mar, 2024
本文提出了一个自动化框架来测量数据分布对自然语言处理模型性能和评估的影响,并通过两组实验表明数据的分布对评估具有统计学上的重要性,并且可预测模型的泛化能力。
Mar, 2024
通过提供一种语言描述训练数据如何影响预测的因果框架,我们研究了提取预训练语言模型中事实知识的问题。研究表明,诸如共现计数等简单数据统计确实会影响预测结果,暗示此类模型依赖于表浅启发式。此结果强调了研究数据集和了解 NLP 模型的因果性的重要性。
Jul, 2022
通过将输入嵌入和输出投影矩阵进行绑定,利用更多信息和减小可训练变量数量,提出了一种提高自然语言模型学习效率的新型理论框架,并在 Penn Tree Bank 数据集上实现了最先进的性能。
Nov, 2016
本文提出一种新的基于概率框架、结合形式语义和机器学习的方法,通过将谓词与其所指实体分开,利用贝叶斯推断来对逻辑形式进行推理,在使用受限玻尔兹曼机和前馈神经网络的组合实现这一框架之后,最终证明了该方法的可行性。
Jun, 2016
Differential State Framework (DSF) 统一了先前引入的门控神经模型, Delta-RNN 是 DSF 框架下的一种新体系,可以学习在快速变化的数据驱动表示和慢慢变化的隐含稳定状态之间插值,使长时间滞后的信息得以得以保留,性能表现优于 LSTM、GRU 等流行的复杂表现系统。
Mar, 2017
提出了一系列以数据为中心的启发式方法来改善机器学习系统在量子信息科学问题上的表现。具体而言,我们考虑如何通过系统地构建训练集来显著提高用于量子状态重构的预训练神经网络的准确性,而不改变底层架构。
Jan, 2022
使用分层相关传递技术,比较 Fisher Vector 分类器和 Deep Neural Networks 在图像分类中对于上下文的重要性、重要分析区域和数据中的潜在缺陷和偏见等方面的差异。
Dec, 2015