- ReduceFormer:通过求和进行张量缩减的注意力
Transformers 的计算机视觉任务中,通过使用简化架构和改进的推理性能的 ReduceFormer 模型系列,有效地解决了传统 Transformer 模型中的计算问题,降低了延迟和提高了吞吐量,适用于计算资源和内存带宽有限的边缘设 - AI 是否能相似地感知:测试大型语言模型对精神健康支持的响应
我们开发了一个评估框架,以确定大型语言模型在自动化心理健康治疗方面是否是可行和道德的前进路径,并通过人工评估和心理学研究的自动质量评估指标,比较了点对点响应者提供的回应与一种最先进的大型语言模型提供的回应。我们展示了像 GPT-4 这样的大 - Vidur:一个用于 LLM 推理的大规模模拟框架
优化大型语言模型(LLM)的部署非常昂贵,本文介绍了一种模拟框架 Vidur,通过实验和预测模型评估 LLM 的性能以及寻找最佳配置来降低成本。
- 可学习的证据协作感知模型的无线传感器网络部署
通过利用证据理论框架下的协作信息,基于传感器的协作感知模型开发了一种传感器部署网络(LSDNet),以实现无线传感器网络(WSNs)的最佳部署和最大覆盖质量。研究了最小传感器数量的算法,并通过数值示例和森林区域监测应用证明了算法的有效性和鲁 - 基础模型透明度报告
基礎模型透明度報告是一種基於社交媒體的透明度報告實踐,用於提供關於基礎模型開發和部署的透明度,以降低合規成本並加強監管要求。
- LiGNN:领英上的图神经网络
LinkedIn 在大规模部署的 Graph Neural Networks Framework 中提出了 LiGNN,通过一系列算法改进如图形结构设计、冷启动解决方案和邻居采样优化,实现了在 LinkedIn 图表上大规模训练的速度提升, - 一座动摇的纸牌屋?对语言代理的敌对攻击进行映射
通过统一的概念框架,系统地研究了针对语言代理的对抗攻击,并提出了 12 个潜在攻击场景,涵盖了对不同组件的不同攻击策略,强调了在广泛部署之前对语言代理风险进行全面了解的紧迫性。
- 理解 LLMs: 从训练到推理的综合概述
ChatGPT 的引入使得大型语言模型(LLM)被广泛应用于解决后续任务,而在此背景下,低成本的 LLM 培训和部署代表着未来的发展趋势。本文回顾了与这一新兴趋势相一致的大型语言模型培训技术和推理部署技术的演变。在培训方面,讨论了数据预处理 - 蓄意风险控制:用于大型语言模型负责任部署的严密框架
大型语言模型的能力提升引发了对如何最好地提示模型执行给定任务的兴趣,为了减轻最坏结果风险并促进负责任的部署,我们提出了 Prompt Risk Control 框架,通过对一系列信息风险度量的严格上界选择提示,成功改善了生成质量中的分歧。
- 在 CPU 上高效 LLM 推断
本论文提出了一种有效的方法,可以更高效地部署大型语言模型,通过自动 INT4 纯权重量化流和设计具有高度优化内核的特殊 LLM 运行时,在 CPU 上加速 LLM 推理,展示了该方法对包括 Llama2、Llama、GPT-NeoX 等流行 - 使用分布式强化学习学习风险感知的四足动物运动
通过使用分布式强化学习的风险敏感的运动训练方法,我们提出了一种在危险环境中部署的机器人能够明确建模其行为和动作风险以预防事故的方法,通过消除额外的奖励函数调整需求,实现了风险敏感的运动模式。
- 何时相信 AI: 神经网络认证的进展与挑战
人工智能正在快速发展,并已成熟用于许多应用领域,如自主系统、医学诊断和自然语言处理。本文概述了确保人工智能决策安全的技术,并讨论了未来的挑战。
- MLOps:企业机器学习的一大步
该研究详细介绍了 MLOps,它的好处,困难,演变以及重要的底层技术,如 MLOps 框架,Docker,GitHub 动作和 Kubernetes。该文章还侧重于使用各种成熟度水平的自动化管道的 ML 项目的端到端生产。它提供了一个企业级 - 基于 Docker 部署机器学习项目的实践研究
本研究探讨了 Docker 如何用于部署基于机器学习的项目。研究发现,六类基于机器学习的项目使用 Docker 进行部署,主要为了提高平台的可移植性和跨操作系统、GPU 运行时和语言限制。然而,由于图像层中包含大量的文件和深度嵌套的目录,构 - MM合成数据 -- 什么、为什么和如何?
本文介绍了合成数据技术及其隐私保护方面的现状,以及相关工具的使用,强调了其细微处理中容易被忽略的方面。
- 机器学习系统的技术成熟度水平
介绍了一种名为 “机器学习技术准备级别” 的系统工程方法,可确保机器学习方法的可靠性和有效性,同时优化产品化和部署过程。
- 部署机器学习的挑战:案例研究调查
该论文调查了部署机器学习模型在实际业务系统中可能遇到的挑战和关注点,并将这些挑战与机器学习部署工作流程的各个阶段对应起来,以期为解决这些挑战探索新的方法和研究方向。
- 2019 年智能手机上深度学习的 AI 基准测试
本文评估了高通、海思、三星、联发科和紫光展锐提供的 AI 推理硬件加速的所有芯片组的性能,并比较了它们的结果。同时,我们还讨论了 Android ML 流水线的最近变化,并提供了在移动设备上部署深度学习模型的概述。
- Overton:监控和改进机器学习产品的数据系统
Overton 是一个系统,设计目标是支持工程师在构建、监控和改进生产机器学习系统方面。通过提供一组新的高层次、声明性抽象,自动化模型的生命周期。使用 Overton,工程师可以构建基于深度学习的应用程序,而不需要在 TensorFlow - 机器学习生命周期中的伤害来源理解框架
通过提供一个框架,本文阐明了机器学习的七个潜在的后续危害源,并在数据收集、开发和部署等过程中加以控制,以期实现更高效、更准确的沟通。