本文研究了一种新颖的评审 - 文章匹配方法,该方法已被引入多个计算机科学领域的顶级会议,包括 AAAI,ICML,IJCAI 等,并通过对现实数据的广泛后期分析进行了评估,比较了其与 AAAI 2020 版本使用的匹配算法的不同之处。
Feb, 2022
本文通过大型语言模型(LMs)彻底研究和研究了同行评审中的公平性差异问题,在多个受保护属性的兴趣下,包括作者性别,地理,作者和机构声望等方面,观察到差异水平不同,文本特征在减少偏见中是必不可少的,同时研究了同行评审过程的自动化机器评审系统的一个具体例子,并提供了评审生成和评分任务的基准模型,这个数据集可用作基准。
Nov, 2022
利用基于方面的情感分析从科学评论中提取有用信息可以更好地判断接受 / 拒绝决策,并且发现审稿人之间的不一致程度可能与主席的意见不一致有关。
Jun, 2020
本调查是关于 NLP 社区对于同行评审匹配系统中应该考虑的因素,旨在为改进未来的 NLP 会议提供可行建议和可解释的同行评审分配的愿景。
May, 2022
介绍科学出版物的同行评审制度,讨论机器学习对此的影响,提出对标准和质量的强调以及提供适当的激励措施,如按照每次评审给予的财务补偿。
Dec, 2018
本文讨论如何运用自然语言处理技术,自动生成机器学习领域的论文评审。通过收集论文数据集和训练模型进行实验,研究发现自动生成的评审可以涵盖更多的内容,但在细节方面需要更高的准确性和构造性。最后,总结了这个领域的八个难题及其潜在解决方案。
Jan, 2021
本研究通过比较人工评审者和机器学习模型得出的结果,研究了 AI 在学术安全会议评审中的表现,并以 ChatGPT 和基于 Doc2Vec 模型的两阶段分类方法为基础,评估了文献评审结果的预测能力,发现 Doc2Vec 方法的实验评估表现明显优于 ChatGPT,达到了超过 90% 的准确率。同时分析了测试的 ML 模型的潜在优势和限制,并探索了文献评审过程中能够从自动化支持方法中获益的领域,同时也认识到在某些方面,尖端 AI 技术无法替代人类智慧的不可替代角色。
Sep, 2023
本研究通过对 ACL-2018 会议的 4000 余个论文的评论和 1200 余个作者回复的语料库的定量和定性分析以及针对构成论文弱点给出的试点研究和关于作者回复质量的定量和定性评估,重点放在了反驳阶段的角色以及从初审回复和作者回复中预测最终评分的新任务上,研究结果发现虽然作者回复会对最终评分产生一定的影响,但评审人的最终评分往往取决于他们的初审评分和与其他评审人初审评分之间的距离,而这种从众心理一直是同行评议中存在的偏见,但这个偏见在以前的研究中被忽视了。
Mar, 2019
研究了会议同行评审中的三个挑战:评审人恶意加入给出正面评价的论文、评审人故意给不喜欢的论文打低分和评审人匿名解除。提出了一种对三个问题进行通用性整合的方法,并针对给定限制下的评审人分配问题提出了随机算法,成功限制了恶意评审人分配。
本文研究了会议中同行评审机制的问题,提出了一种基于社会选择理论的策略性确保且高效的同行评审算法,并在 ICLR 大会提交数据上进行了实证研究。
Jun, 2018