|

财经

高通发布两颗AI芯片,股价大涨

来源:半导体行业观察

2025-10-28 09:10:46

(原标题:高通发布两颗AI芯片,股价大涨)

公众号记得加星标,第一时间看推送不会错过。


来 源: 内容编译自CNBC。

高通周一宣布将发布新的人工智能加速器芯片,标志着英伟达面临新的竞争。该公司迄今已在人工智能半导体市场占据主导地位。消息传出后,高通股票飙升11%。

人工智能芯片是高通的一个转变,高通迄今为止一直专注于无线连接和移动设备的半导体,而不是大型数据中心。

高通表示,将于 2026 年上市销售的 AI200 和计划于 2027 年上市的 AI250 均可装入装满液冷服务器机架的系统中。

高通正在与 Nvidia 和AMD竞争,这些公司提供全机架系统,最多可容纳 72 块芯片,组成一台计算机。人工智能实验室需要这种计算能力来运行最先进的模型。

高通的数据中心芯片基于高通智能手机芯片中的人工智能部件,称为 Hexagon 神经处理单元(NPU)。

高通数据中心和边缘计算总经理杜尔加·马拉迪 (Durga Malladi) 上周在与记者的电话会议上表示:“我们首先想在其他领域证明自己,一旦我们在那里建立了实力,我们就很容易在数据中心层面更上一层楼。”

高通进入数据中心领域,标志着技术领域增长最快的市场出现了新的竞争:以人工智能为重点的新型服务器群设备。

据麦肯锡估计,到 2030 年,数据中心的资本支出将接近 6.7 万亿美元,其中大部分将用于基于人工智能芯片的系统。

该行业一直由英伟达主导,其 GPU 迄今占据了超过 90% 的市场份额,其销售额推动该公司市值超过 4.5 万亿美元。英伟达的芯片曾用于训练 OpenAI 的 GPT(ChatGPT 中使用的大型语言模型)。

但像 OpenAI 这样的公司一直在寻找替代方案。本月早些时候,这家初创公司宣布计划从排名第二的 GPU 制造商 AMD 购买芯片,并可能持有该公司的股份。其他公司,例如谷歌,亚马逊和微软,也在为其云服务开发自己的人工智能加速器。

高通表示,其芯片专注于推理或运行人工智能模型,而不是训练,而 OpenAI 等实验室则通过处理 TB 级数据来创造新的人工智能能力。

该芯片制造商表示,其机架式系统最终将降低云服务提供商等客户的运营成本,并且一个机架的功耗为 160 千瓦,与某些 Nvidia GPU 机架的高功耗相当。

Malladi 表示,高通还将单独出售其 AI 芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。他表示,其他 AI 芯片公司,例如 Nvidia 或 AMD,甚至可能成为高通部分数据中心部件(例如中央处理器,简称 CPU)的客户。

马拉迪说:“我们试图确保我们的客户能够选择全部购买,或者说‘我要混合搭配’。”

该公司拒绝评论芯片、卡或机架的价格,以及单个机架可安装多少个NPU。今年5月,高通宣布与沙特阿拉伯的Humain公司合作,为该地区的数据中心提供AI推理芯片。Humain将成为高通的客户,并承诺部署最多可使用200兆瓦电力的系统。

高通表示,其AI芯片在功耗、拥有成本以及内存处理的新方法方面均优于其他加速器。该公司表示,其AI卡支持768GB内存,高于Nvidia和AMD的产品。

高通推出 AI200 和 AI250 AI 推理加速器

高通周一正式宣布了两款即将推出的AI推理加速器——AI200和AI250,预计将于2026年和2027年上市。据称,这两款新加速器将在运行大规模生成式AI工作负载时,凭借更高的效率和更低的运营成本,与AMD和Nvidia的机架级解决方案展开竞争。此次发布也重申了高通每年发布更新产品的计划。

Qualcomm AI200 和 AI250 加速器均基于专为数据中心 AI 工作负载定制的 Qualcomm Hexagon 神经处理单元 (NPU)。近年来,该公司一直在逐步改进其 Hexagon NPU,因此这些处理器的最新版本已经配备了标量、矢量和张量加速器(采用 12+8+1 配置),支持 INT2、INT4、INT8、INT16、FP8、FP16 等数据格式,以及用于减少内存流量的微块推理、64 位内存寻址、虚拟化和用于额外安全性的 Gen AI 模型加密。对于 Qualcomm 来说,将 Hexagon 扩展到数据中心工作负载是一个自然的选择,尽管该公司将为其 AI200 和 AI250 单元设定什么样的性能目标还有待观察。

高通的 AI200 机架级解决方案将是该公司首款由 AI200 加速器驱动的数据中心级推理系统,该系统配备 768 GB LPDDR 内存(对于推理加速器而言,这已是相当可观的内存容量),并将使用 PCIe 互连实现纵向扩展,并使用以太网实现横向扩展。该系统将采用直接液冷,每机架功率高达 160 kW,这对于推理解决方案而言也是前所未有的功耗。此外,该系统还将支持企业部署的机密计算。该解决方案将于 2026 年上市。

一年后推出的 AI250 保留了这一架构,但增加了近内存计算架构,有效内存带宽提升了 10 倍以上。此外,该系统将支持分解推理功能,使计算和内存资源能够在不同卡之间动态共享。高通将其定位为一款更高效、高带宽的解决方案,针对大型 Transformer 模型进行了优化,同时保留了与 AI200 相同的散热、散热、安全性和可扩展性特性。

Qualcomm Technologies 高级副总裁兼技术规划、边缘解决方案和数据中心总经理 Durga Malladi 表示:“凭借 Qualcomm AI200 和 AI250,我们正在重新定义机架级 AI 推理的可能性。这些创新的全新 AI 基础设施解决方案使客户能够以前所未有的总体拥有成本 (TCO) 部署生成式 AI,同时保持现代数据中心所需的灵活性和安全性。”

除了构建硬件平台,高通还在构建一个针对大规模推理优化的超大规模级端到端软件平台。该平台将支持主要的机器学习和生成式人工智能工具集,包括 PyTorch、ONNX、vLLM、LangChain 和 CrewAI,同时实现无缝模型部署。该软件堆栈将支持分解式服务、机密计算以及预训练模型的一键式加载,以简化部署。

Malladi表示:“我们丰富的软件栈和开放的生态系统支持,使开发者和企业能够比以往更轻松地在我们优化的AI推理解决方案上集成、管理和扩展已训练好的AI模型。Qualcomm AI200和AI250无缝兼容领先的AI框架,并支持一键式模型部署,旨在实现无缝应用和快速创新。”

https://www.cnbc.com/2025/10/27/qualcomm-ai200-ai250-ai-chips-nvidia-amd.html

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4208期内容,欢迎关注。

加星标第一时间看推送,小号防走丢

求推荐

半导体行业观察

2025-10-28

半导体行业观察

2025-10-28

半导体行业观察

2025-10-28

半导体行业观察

2025-10-28

半导体行业观察

2025-10-28

证券之星资讯

2025-10-28

首页 股票 财经 基金 导航