科金社2025年08月06日 14:38消息,AMD与高通携手支持OpenAI开源推理模型,推动AI硬件生态革新,加速AI技术普及与应用落地。
8 月 6 日消息,OpenAI 于当地时间昨日正式发布两款基于 Apache 2.0 许可证的开放推理模型,归属于全新的 gpt-oss 系列。此次推出的模型包括参数规模为 200 亿的 gpt-oss-20b 和高达 1200 亿参数的 gpt-oss-120b,标志着 OpenAI 在开源与边缘 AI 部署方向迈出关键一步。尤为引人注目的是,gpt-oss-20b 仅需 16GB 内存即可在边缘设备上运行,而 gpt-oss-120b 也能在单个 80GB GPU 上实现高效推理,极大降低了高性能 AI 模型的部署门槛。
AMD 与高通迅速响应,宣布其多款硬件平台全面支持 gpt-oss 系列模型。具体来看,AMD 锐龙 AI Max+ 395 处理器成功适配 gpt-oss-120b,成为首款宣称可运行该级别大模型的消费级 AI PC 处理器;AMD Radeon RX 9070 16GB 显卡则支持 gpt-oss-20b 模型;高通方面确认其旗舰骁龙平台亦可运行 gpt-oss-20b,为移动端 AI 应用拓展了新的可能性。这一系列合作显示出硬件厂商对开放模型生态的高度重视,也预示着未来终端侧大模型部署将加速普及。
据 AMD 介绍,锐龙 AI Max+ 395 是全球首款支持 gpt-oss-120b 的消费级处理器,其背后依托于“Strix Halo”平台的 128GB 统一内存架构,其中高达 96GB 可分配给 GPU 使用。通过采用 GGML 框架转换的 MXFP4 量化格式,gpt-oss-120b 模型运行所需显存压缩至约 61GB,从而在该平台上得以流畅运行。这一技术组合不仅展现了 AMD 在异构计算与内存管理上的领先能力,也标志着消费级设备处理千亿级大模型正从概念走向现实。
性能方面,锐龙 AI Max+ 395 在运行 gpt-oss-120b 时可实现约 30 Token/s 的稳定输出速度,并已支持该模型的 MCP(Model Context Protocol)上下文协议实现。这意味着用户在进行复杂推理或多轮对话时,能够获得更连贯、更高效的交互体验。从技术角度看,MCP 协议的集成有助于提升上下文管理效率,降低延迟,是实现高质量本地化 AI 服务的重要一环。
Radeon RX 9070 16GB 显卡在 gpt-oss-20b 模型上的表现同样亮眼,官方强调其在首 Token 输出时间(TTFT)和每秒 Token 输出数量等关键指标上均有出色表现。这对于注重响应速度的应用场景——如实时语音助手、本地化 AI 写作工具等——具有重要意义。显卡级 GPU 在消费端承担大模型推理任务,正逐步成为主流趋势,而 AMD 此次的优化无疑为独立显卡在 AI 时代的角色重塑提供了有力支撑。
高通方面透露,早期测试显示 gpt-oss-20b 在搭载骁龙旗舰平台的设备上已能实现高质量的思维链(Chain-of-Thought)推理能力。开发者可通过 Hugging Face、Ollama 等主流开源平台直接调用该模型,快速构建端侧 AI 应用。这一进展意味着智能手机、平板等移动设备有望真正实现“离线智能”,在保护用户隐私的同时提供强大的本地化 AI 服务。可以预见,随着模型轻量化与硬件算力的双重进步,端侧大模型将迎来爆发式增长。
此次 OpenAI 推出 gpt-oss 系列并采用 Apache 2.0 这一高度开放的许可证,释放出强烈的生态共建信号。不同于以往闭源或限制性较强的发布模式,此举不仅降低了开发者和硬件厂商的接入门槛,也为全球 AI 社区提供了更多创新空间。更值得肯定的是,这些模型能够在消费级设备上运行,打破了“大模型必须依赖云端”的固有认知,推动 AI 民主化进程向前迈进一大步。
综合来看,OpenAI 与 AMD、高通等硬件巨头的协同,正在构建一个从模型到芯片的端到端开放生态。这种软硬结合的模式,或将重新定义未来 AI 产品的开发范式。尤其是在数据隐私、响应延迟和离线可用性日益受到关注的当下,本地化大模型的价值愈发凸显。我们有理由相信,随着更多厂商加入这一生态,2024 年将成为端侧 AI 落地的关键转折点。
留言评论
(已有 0 条评论)暂无评论,成为第一个评论者吧!