学术期刊中的 AI 在稿件准备中的应用
通过对最近的跨学科文献进行综述,本文考察了人工智能技术(例如 ChatGPT)对学术写作和出版产生的重大影响,着重讨论了人工智能被用于学术不端行为时的伦理考虑以及在学术论文的写作、编辑和审查中使用人工智能时所需的监督。研究结果强调了出版商、编辑、审稿人和作者之间合作使用人工智能的需要,以确保该技术在道德和生产力方面的合理使用。
Jun, 2024
利用自动检测器识别大型语言模型辅助写作的研究,发现目前的四种先进的自动生成文本检测器性能不佳,提出专门针对大型语言模型辅助写作检测的专用检测器的发展是必要的。这样的检测器可以在科学交流中促进对大型语言模型参与的真实认可,并解决目前对认可实践的挑战。
Jan, 2024
本文介绍了如何在学术写作中使用人工智能 (AI),并提供了一系列最佳实践,以确保在使用 AI 时不违反版权或落入公平使用的安全港。我们提供了一个框架,以确立健全的法律和学术基础。
May, 2023
AI chatbots in scholarly writing were analyzed, revealing their proficiency in recombining existing knowledge but their limitations in generating original scientific content; the size of LLMs has plateaued, highlighting the challenges in emulating human originality, though the evolution of LLM-powered software is expected to improve this.
Sep, 2023
记者在使用大型语言模型(LLMs)时存在与 AI 的互动,而研究揭示了记者如何向 LLM 提供敏感材料并以有限的干预发表机器生成的文章,因此呼吁进一步探讨 AI 的负责任使用以及在新闻环境中使用 LLMs 的明确准则和最佳实践。
Jun, 2024
为了确定科学领域前 100 名学术出版社和期刊对于生成 - AI、预训练生成模型和大型语言模型工具的使用向作者提供的指导程度和内容,我们在 2023 年 5 月 19 日至 20 日期间筛选了这些出版社和期刊的网站。在最大的 100 家出版社中,17% 提供了关于生成 - AI 使用的指导,其中 12 家(70.6%)是前 25 名的出版社。在前 100 名期刊中,70% 提供了关于生成 - AI 的指导。在这些指导中,有 94.1% 的出版社和 95.7% 的期刊禁止将生成 - AI 作为作者。有 4 个期刊(5.7%)明确禁止在撰写稿件过程中使用生成 - AI,而 3 个出版社(17.6%)和 15 个期刊(21.4%)则表示他们的指导仅适用于写作过程。在披露生成 - AI 使用时,42.8% 的出版社和 44.3% 的期刊包括了具体的披露标准。关于在哪里披露生成 - AI 的使用存在着不同的指导,包括在方法、致谢、讨论或者新的章节中。关于如何访问生成 - AI 的指导以及期刊和出版社将指导与作者的规定联系起来,也存在着不同的做法。一些顶级出版社和期刊对于作者使用生成 - AI 缺乏指导,指导程度存在着显著的异质性,包括使用范围和披露要求的异质性,这种异质性在一些关联的出版社和期刊中仍然存在。缺乏标准化的指导给作者带来了负担,并可能限制这些规定的效力。为了保护科学成果的完整性,在生成 - AI 不断增长的趋势下,需要制定标准化的指南。
Jul, 2023
本文介绍了直接来源检测的概念,并评估了生成型 AI 系统是否能够识别其输出并将其与人工编写的文本加以区分。结果表明,Google 的 Bard 模型表现出最大的自检测能力,准确率达到 94%,其次是 OpenAI 的 ChatGPT,准确率为 83%。而 Anthropic 的 Claude 模型似乎无法自检测。
Dec, 2023
近期的人工智能进展为学术同行评审带来了机遇与风险,讨论主要围绕在学术期刊出版中的剽窃和作者权益,忽视了同行评审所处的更广泛的认知、社会、文化和社会认知等问题;论文强调了:AI 驱动的同行评审的合法性需要进行批判性评估,包括其在更广泛的认知、社会、道德和法规因素上的利弊,并与学术社区中定义适当行为的道德和认知规范的一致性。
Sep, 2023
AI 和生成 AI 工具在研究发现和总结方面具有重要作用,通过生成语言模型可以更快地找到相关文献并提取研究论文的关键要点,对统计学家和数据科学家具有重要意义。
Jan, 2024