科学文献中新兴概念的高精度提取
本研究提出了一种自动、准确和灵活的算法,能够从数字化科学文章中直接提取各种元数据,包括基本文档元数据、结构化全文和参考文献部分。该算法通过在大规模、多样化的数据集上训练监督和无监督机器学习算法实现,具有较高的精度,适用于分析异构文档集合。与其他类似解决方案的比较也证明了我们的算法在大多数元数据类型上表现优于竞争对手。
Oct, 2017
本研究提出了一种针对未知类别的科学文献的文本分类的新方法,使用自然语言处理技术。该研究利用预训练的语言模型(特别是 SciBERT)从 ArXiv 数据集的摘要中提取有意义的表示。文本分类使用 K-Means 算法进行,并根据 Silhouette 得分确定最佳聚类数。结果表明,所提出的方法比传统的 arXiv 标签系统更有效地捕捉主题信息,从而改善了文本分类。该方法为科学研究文献快速增长的领域提供了更好的导航和推荐系统的潜力。
Sep, 2023
在这项研究中,使用临床自然语言处理技术解决了识别和映射标准术语的问题。提出了一种用于提取临床文本中关键概念的 TF-IDF 快捷方法,并使用基于 transformer 的模型设计了两种下游任务,结果表明 SciBERT 模型在结合提出的方法时具有优越性,并为临床笔记的关键短语提取提供了洞察。
Mar, 2023
本研究提出了一种基于深度学习的自动化主题注解细化方法,通过在文章摘要中的概念出现来进行弱监督,发现概念出现是自动化主题注解细化的强有力依据,还可以与基于字典的启发式算法相结合以进一步提高准确率。
Jan, 2023
使用文献计量学文本挖掘和摘要技术对科学文献进行自动生成,利用引文生成摘要,通过 C-LexRank 对单篇文章进行摘要提取,同时拓展到一系列科学文献的摘要提取和分析,证明引文是创建摘要的一种独特信息资源。
Feb, 2014
利用无监督学习方法构建知识图谱,将自然语言概念实体与源代码实体相关联,结合词嵌入、降维和聚类技术的文本概念聚类方法,用于帮助科学家理解、组织和比较开放科学生态系统中的软件,并增强对科学文献的整体理解。
Aug, 2019