朋友还是敌人?探究大型语言模型对科学系统的影响
本文对基于大型语言模型的教育技术创新进行了系统文献综述和理论分析,并提出了以人为本的开发推荐,以解决基于大型语言模型的教育任务自动化可能带来的实际和伦理挑战。
Mar, 2023
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以GPT3.5 / ChatGPT3.4和ChatGPT 4为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023
本文回顾了最近发表的关于LLMs在道德教育和发展研究中的问题,涵盖了LLMs的新功能特性,如情境学习和思维链以及在解决伦理困境时的表现及其潜在意义和影响。
Jun, 2023
该研究论文探讨了大语言模型和聊天机器人结合应用于研究生工程教育的可能性,并通过一个研究案例证明了聊天机器人在课堂上的潜在优势,包括促进自主学习、提供即时反馈以及减轻教师负担。该研究还讨论了智能提示对聊天机器人性能的提升效果以及如何通过插件扩展聊天机器人的功能,同时强调在教育中使用这些人工智能模型所面临的挑战和伦理问题,并主张采取平衡的方法进行评估和改进。
Sep, 2023
大型语言模型越来越多地被纳入科学工作流程中,但我们还没有完全掌握这种整合的影响。大型语言模型的出现应该如何影响科学实践?本观点文章邀请了四组不同的科学家来思考这个问题,分享他们的观点并进行辩论。
Dec, 2023
本文探索大型语言模型在心理学应用中的前沿。大型语言模型如ChatGPT正在改变心理学研究的方式,并在认知与行为心理学、临床与咨询心理学、教育与发展心理学以及社会与文化心理学等多个领域发挥着影响,强调了它们模拟人类认知和行为的潜力。该论文还讨论了这些模型在心理学方面的能力,提供了创新工具用于文献综述、假设生成、实验设计、实验对象选择、数据分析、学术写作和同行评审。然而,尽管大型语言模型对推进心理学研究方法至关重要,但该论文也注意到了其技术和伦理挑战,如数据隐私、在心理学研究中使用大型语言模型的伦理影响以及对这些模型局限性的更深入了解的需要。研究人员应该负责任地在心理学研究中使用大型语言模型,遵守伦理标准,并考虑在敏感领域部署这些技术的潜在后果。总之,这篇文章全面概述了大型语言模型在心理学中的现状,探讨了潜在的好处和挑战。它号召研究人员在充分利用这些模型的优势的同时,负责任地解决相关风险。
Jan, 2024
本研究通过系统调查、基于文本挖掘的全球和国家指南、独立研究以及八十所大学层面的指导,提供了对教育中生成式人工智能(GAI)和大型语言模型(LLMs)的机会和挑战进行细致的理解。研究强调了在这些技术的整合过程中平衡方法的重要性,以 harness 利用其技术优势的同时,考虑伦理问题,并确保公平的获取和教育结果。最后,本文提出了促进负责任创新和道德实践,指导将GAI和LLMs整合到学术中的建议。
May, 2024
本研究探讨了大型语言模型(LLMs)在基于研究论文信息生成新的研究想法的能力,填补了人工智能应用于科研创意生成的空白。我们发现,Claude-2产生的未来研究想法在多样性和作者观点的契合度上优于其他模型,如GPT-4和GPT-3.5。此研究突显了LLMs在创意生成过程中的潜力和局限性,为未来利用语言模型生成研究想法提供了重要洞见。
Sep, 2024
本研究针对大型语言模型(LLMs)在天文学研究中应用的潜在问题与局限性展开探讨。通过对13位不同职业阶段天文学家的研究,分析了LLMs在多种研究任务中的使用效果及参与者的体验。研究表明,虽然LLMs在协助研究方面展现出巨大潜力,但仍需结合研究者的批判性思维和专业知识,以确保其作为辅助工具而非科学探究的替代品。
Sep, 2024