科学同行评审中的论证自动分析
本文讨论如何运用自然语言处理技术,自动生成机器学习领域的论文评审。通过收集论文数据集和训练模型进行实验,研究发现自动生成的评审可以涵盖更多的内容,但在细节方面需要更高的准确性和构造性。最后,总结了这个领域的八个难题及其潜在解决方案。
Jan, 2021
本文介绍了通过自动检测审稿人提出的论点和类型来研究同行评审过程的内容和结构,从而评估其效率和功效。作者首先收集了来自机器学习和自然语言处理领域的 14.2K 份审稿意见,并对其中的 400 份进行了注释,最终得出了一些结论并提出了未来新的挑战。
Mar, 2019
论文介绍了一种新的认领审核数据集,其中包括来自搜索引擎查询的实例,共包含 10,987 个带有证据的主张,证据来自完整的维基百科文章,注释具有章节和句子级别的细粒度,通过总体评估,作者发现使用证据提取来总结最终用户的理由时,预测主张真实性的准确性并没有明显差异,此数据集还存在挑战性问题,作者在转移学习实验中进行了证明
Apr, 2021
通过提取和融合来源摘要的相关证据理由,提出了一种调用二分类序列逐个进行预测子任务的模块化方法,从而实现科学主张的自动验证,包括验证支持和反驳证据,该方法名为 RerrFact,并平台竞争 SciFact 排行榜。
Feb, 2022
本文介绍了一种方法,可以根据用户定义的查询自动生成一篇综述论文。该方法包括两个主要部分,第一部分通过诸如同袍引用的图表等文献计量参数来识别领域中的关键论文。第二阶段使用 BERT 架构,我们在现有的综述论文中对这些关键论文进行抽取式摘要。我们介绍了我们方法的一般流程和一些实现细节,并在 PubMed 数据集上进行了自动和专家评估。
Oct, 2020
自动化生成证明(说明为何某主张被分类为真或假)的过程在抵制虚假信息方面起到重要作用,这篇论文针对无结构知识(如新闻文章)的摘要方法进行了实验证明,结果显示,通过基于主张信息的抽取步骤改善摘要性能可以从证明生成摘要中获益。
Aug, 2023
通过对科学文章进行形式化的出版和语义学处理,可以提高科研工作者更新领域最新成果的工作效率,并为未来科学事业的效率和效益带来了不计其数的可能性。
Mar, 2022