大型语言模型是否能够民主化获取双重用途生物技术?
这篇文章着重探讨了大型语言模型对人类价值、劳动力市场的影响以及需不需要对它们进行监管等问题,同时,它们也能更好地人性化技术,并且可以克服当前技术所面临的瓶颈问题。因此,我们应该更广泛地了解和推广 LLMs 以及简化 LLMs 使用的工具和方法。
May, 2023
研究表明,ChatGPT 和大型语言模型在科学的管理、创造和分析任务方面具有转化潜力,但需要通过积极的监管和科学教育来解决与偏见、错误信息和质量保证相关的风险。
Jun, 2023
在 Mastodon 社交媒体平台上,我们使用了 “LLMs Among Us” 实验框架构建了 10 个角色来研究大型语言模型的潜力和威胁,发现参与者只有 42% 的准确率能识别出其他用户的真实性。此外,我们还发现角色的选择对于人的感知影响比主流大型语言模型的选择更大。
Feb, 2024
大语言模型(LLM)的出现具有革命性的影响。然而,像 ChatGPT 这样的 LLM 是否可能被滥用来生成误导信息,对在线安全和公众信任构成了严重关注。我们从检测难度的角度提出了一个基本的研究问题:LLM 生成的误导信息是否比人类编写的误导信息具有更大的危害性?通过我们的实证研究,我们发现相比于具有相同语义的人类编写的误导信息,LLM 生成的误导信息对于人类和检测器来说更难以检测,这表明它可能具有更具欺骗性的风格,并有可能造成更大的伤害。我们还讨论了我们发现对抗 LLM 时的误导信息在信息时代和相应对策的影响。
Sep, 2023
基于大型语言模型(LLMs)的研究和应用在生物信息学领域有着巨大潜力和效力,该研究通过分析各种关键生物信息学任务,证明了 LLMs(如 GPT 变体)在给定适当提示的情况下可以成功处理大多数任务,同时也分析了在复杂生物信息学任务中的局限性。
Feb, 2024
该研究论文探讨了大语言模型和聊天机器人结合应用于研究生工程教育的可能性,并通过一个研究案例证明了聊天机器人在课堂上的潜在优势,包括促进自主学习、提供即时反馈以及减轻教师负担。该研究还讨论了智能提示对聊天机器人性能的提升效果以及如何通过插件扩展聊天机器人的功能,同时强调在教育中使用这些人工智能模型所面临的挑战和伦理问题,并主张采取平衡的方法进行评估和改进。
Sep, 2023
通过对大型语言模型在社交机器人中的潜力进行分析,本研究侧重于教育、医疗和娱乐等社交机器人的应用,并对这些语言模型如何安全地接受培训以 “理解” 社会规范和问题进行了研究,以期为其他有兴趣将语言模型融入机器人的研究人员提供有益指导。
Mar, 2024
大型语言模型 (Large Language Models, LLMs) 的迅猛发展正在革新数据科学和统计学,该论文旨在探讨 LLMs 对于数据科学教育的潜在机遇、资源和挑战,以及其在数据科学中的作用转变和创造性应用。
Jul, 2023
论文探讨了临床医师对 LLMs 的信任与数据来源从人生成为 AI 生成内容的演变关系,并随之对 LLMs 的准确性和临床医师能力的影响。关注的其中一个主要问题是随着 LLMs 对其输出越来越依赖于学习,可能导致输出质量的降低和临床医师技能的减弱,因为与基本诊断过程的接触减少。虽然目前处于理论阶段,但这种反馈循环对于深入整合 LLMs 于医疗保健领域提出了重大挑战,强调了积极对话和战略措施以确保 LLM 技术的安全有效使用的必要性。此外,我们深入探讨了 LLMs 自我参考学习循环和医疗保健专业人员能力下降的潜在风险。LLMs 在回音室内运行的风险,其中 AI 生成的内容反馈到学习算法中,威胁到数据池的多样性和质量,可能固化偏见并降低 LLMs 的效力。同时,对 LLMs 在常规或关键任务方面的依赖可能导致医疗保健提供者的诊断和思考能力下降,特别影响未来专业人员的培训和发展。
Mar, 2024