BC4LLM:当区块链遇见大型语言模型时的可信人工智能
通过对多个 LLM 模型的研究,本文不仅提供了全面的概述,还明确了现有挑战,并指出了未来的研究方向。该综述提供了关于生成型人工智能的当前状态的全面观点,为进一步的探索、增强和创新提供了启示。
Mar, 2024
通过呈现示例创新的学习场景,探索了多模态大语言模型 (MLLMs) 在科学教育的核心方面的转变作用,包括文本创作、个性化学习支持、培养科学实践能力以及提供评估和反馈。同时,强调了在实施 MLLMs 时采取平衡的方法的必要性,确保技术对教育者角色的补充,以确保人工智能在科学教育中的有效和道德使用。
Jan, 2024
本文全面调查了基于大型语言模型(LLMs)的聊天机器人在各个领域的进化和部署,总结了基础聊天机器人发展、LLMs 演进,并提供了当前正在使用和开发中的基于 LLMs 的聊天机器人概述。我们将 AI 聊天机器人视为生成新知识的工具,探讨了它们在各个行业中的多样应用。然后,我们讨论了一些挑战,包括训练 LLMs 使用的数据和生成知识的滥用可能引发的问题。最后,我们展望未来,探索如何提升它们在众多应用中的效率和可靠性。通过介绍 LLMs-based 聊天机器人的关键里程碑和当今背景,我们的调查邀请读者深入研究这一领域,并思考它们的下一代将如何重塑对话型人工智能。
Jun, 2024
本研究探讨了 OpenAI 和 New Bing API 应用中集成的大型语言模型对隐私的威胁,通过实验支持了对应用集成的 LLM 可能带来比以前更严重的隐私威胁的观点。
Apr, 2023
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以 GPT3.5 / ChatGPT3.4 和 ChatGPT 4 为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了 LLMs 和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及 LLMs 特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性,以确保问责制、减少偏见并增强 LLMs 在塑造信息传播方面所扮演的重要角色的透明度。它提出了缓解策略和 LLM 伦理的未来发展方向,主张跨学科合作。该研究建议针对特定领域制定伦理框架,并根据不同环境调整动态审计系统。这一路线图旨在引导负责任地开发和整合 LLMs,设想一个以伦理考虑为基础的人工智能进步的未来社会。
May, 2024
通过引入多方面的方法,包括过滤敏感词汇、检测角色扮演、实施自定义规则引擎和扩展到各种大型语言模型衍生物,我们解决了大型语言模型在道德、安全和隐私方面的挑战,并且保持了高性能。这项研究为平衡问答系统的效率与用户隐私和道德标准提供了一个框架,确保了更安全的用户体验并增加了对 AI 技术的信任。
Jan, 2024
在 Mastodon 社交媒体平台上,我们使用了 “LLMs Among Us” 实验框架构建了 10 个角色来研究大型语言模型的潜力和威胁,发现参与者只有 42% 的准确率能识别出其他用户的真实性。此外,我们还发现角色的选择对于人的感知影响比主流大型语言模型的选择更大。
Feb, 2024
AI 领域近年来取得了显著的进展,尤其是基于变压器架构的强大大型语言模型(LLMs)的出现。本文介绍了一种创新的 LLM 推理方法,展望了在无需网络连接的情况下,拥有数十亿参数的 LLMs 可以直接在移动设备上执行的未来。该应用程序不仅作为一个通用助手,而且通过原生代码和模型量化技术的结合,还可以实现与文本到动作功能的无缝移动交互。文章还提供了关于本地 LLM 推理的训练流程、实现细节、测试结果和未来方向的见解。这一突破性技术为用户提供了强大的人工智能能力,同时保护了用户的隐私并消除了延迟问题。
Sep, 2023