利用大型语言模型的自然语言处理是人工智能研究的一个繁荣领域。虽然神经网络已经证明在基于模式识别的游戏和实际领域中可以超越人类,但过度依赖 LLMs 会带来严重的风险,其中包括被用于生产虚假信息。这也引发了新的伦理挑战和各种类型的欺诈。
Feb, 2023
本文旨在提倡对大型语言模型及其相关系统的实际工作进行重新审视,追求更高的科学精度以引领关于人工智能的哲学探索和公众话语。
Dec, 2022
通过讨论伦理人工智能原则和指南的使用,本文旨在解决高级大型语言模型(LLMs)的伦理问题。
Dec, 2023
人工智能,自然语言处理,大型语言模型和科学模型在语言方面的应用和发展的研究。
Oct, 2023
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以 GPT3.5 / ChatGPT3.4 和 ChatGPT 4 为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023
研究表明,ChatGPT 和大型语言模型在科学的管理、创造和分析任务方面具有转化潜力,但需要通过积极的监管和科学教育来解决与偏见、错误信息和质量保证相关的风险。
Jun, 2023
这篇论文讨论了生成型人工智能(GenAI)和大型语言模型(LLMs)的潜在滥用风险和社会影响,并提出了应对挑战和准备的思考。
人工智能系统和大型语言模型的迅猛发展使得有必要评估它们在隐私保护、个人数据保护以及伦理层面上对最弱和最脆弱群体可能产生的风险和影响。本研究聚焦于人类监督、伦理监督和隐私影响评估。
Mar, 2024
研究人工智能(AI)的可接受性,探究影响 AI 接受的因素并通过 AI 受教育介入提高人工智能 AI 繁殖的文化训练。
Jul, 2023
人工智能代理是一个前景光明的领域,利用大型语言模型作为基础构建通用人工智能代理带来了显著的进展,其在单一代理场景、多代理场景以及人机合作中的广泛应用展示了卓越的潜力,并为人类社会提供了有价值的见解。
Sep, 2023