|

财经

AI大模型再掀降价潮,应用端市场现头部集中趋势

来源:财经报道网

2025-12-19 15:57:54

(原标题:AI大模型再掀降价潮,应用端市场现头部集中趋势)

大模型赛道正掀起一场“性价比战争”。

12月18日,谷歌发布Gemini 3系列大模型新品Gemini 3 Flash,以其高性价比成为市场关注焦点。Gemini 3 Flash输入价格仅0.5美元/百万Tokens,输出3美元/百万Tokens,成为大模型竞技场Imarena.ai上性价比最高的前沿模型。

同日,字节在火山引擎FORCE原动力大会上,正式发布“AI节省计划”。火山引擎总裁谭待表示,在这一项目下,企业“用得越多省得越多,最高可节省47%的使用成本”。

这并不是近期仅有的两个“性价比”案例。在此之前,DeepSeek于月初发布的V3.2 正式版及V3.2-Speciale,就以颠覆性的的定价策略引发行业震动——V3.2每百万token 仅需0.28美元,较其年初发布的R1模型降低79%;V3.2-Speciale作为“长思考增强版”,也仅为0.4美元/百万Tokens,相当于GPT-5、Gemini 3.0 Pro、Claude Opus 4.5等竞品的1.6%~4%,呈现出碾压级的性价比。阿里、百度等大模型厂商也随之宣布降价,使国内主流商用模型API进入“厘时代”。

智谱于12月8日上线的GLM-4.6V系列多模态大模型,价格也比GLM-4.5V下降50%。

在大模型技术渐趋成熟,产业逐渐从模型性能竞争的“上半场”,步入场景落地应用的“下半场”背景下,比起性价比逻辑下的产业格局重塑,大模型使用成本降低带来的应用落地加速,或是这波“性价比战争”更具看点的演进动向。

而大模型厂商要打造更高性价比的产品,除了模型架构、训练方法等技术优化之外,更高效的算力基础设施,也成为刚需,为联想集团等优势厂商创造新的结构性机遇。

应用落地加速的关键变量

“降本增效”是当前B端用户使用AI应用的核心诉求。特别是近年来,按结果付费(RaaS)模式快速兴起,企业不再为人工智能技术本身或使用量付费,而是根据AI应用实际达成的业务成果来支付费用,要求AI能够交付可量化的商业价值。因此,更低的部署成本,更高的部署效益,已成为AI应用服务企业拓展市场的关键,也是其技术研发与商业模式探索的重要发力方向。

以中国企业智能化转型领军者联想集团为例,其推出的DeepSeek版AI工作站,5万元入门级方案就能实现大模型本地化部署,还支持2-200人团队使用,部署时间从传统的 3-5天缩短至2小时。而搭载推理加速引擎的台式机造价仅约4万元,可完成32B大模型本地训练,相较于国内某厂商约200万元的传统训练方案,落地成本直接下降98%。

此外,联想集团还探索“服务优先”的模式,其推出的GPU高级服务,将资本密集型的GPU基础设施投资,转变为灵活、经济高效的服务,不仅承诺将AI工作负载运行速度提升高达30%,更通过将GPU部署与经过验证的性能基准相结合,帮助企业避免过度配置的 AI 基础设施部署陷阱,减少了企业20-30%(以三年期量化测算)的部署成本。

而相较于AI应用服务企业在技术与商业模式方面的探索,大模型接入价格的下降,显得更加立竿见影,同时也有利于其在为客户提供低成本优质服务的同时,更好地把控自身利润水平。

因此,性价比更高的模型,往往更容易获得AI应用服务企业的青睐。DeepSeek大模型的最初出圈,很大程度上即得益于其打破了OpenAI、Google为代表的科技巨头“大力出奇迹”的发展模式,以较低训练成本,达到以往AI大模型靠堆算力、拼资金和数据实现的效果,从而能够以1元/百万输入tokens的超低价格吸引用户涌入。

联想集团作为全球首家在端侧部署和运行DeepSeek大模型的AI PC品牌,在谈及选择DeepSeek的原因时,就曾提到其低成本优势:“以前企业训练自己的大模型、打造自己的智能体非常昂贵,只有少数中国企业才具备大模型训练的能力,但DeepSeek提供了一个低成本解决方案,使得中国大型企业未来拥有自己的企业大模型和智能体成为可能。”

后续如硅谷大佬Chamath Palihapitiya宣布用Kimi取代OpenAI,Airbnb选用Qwen等等,原因均与这些大模型的性价比优势密切相关。

如今,国内外大模型掀起集体降价潮,为联想集团等应用服务企业以更低成本提供AI应用服务创造了条件。成本曲线的陡峭下降,有望激活更多对价格高度敏感的场景,缓解用户“想用而不敢用”的困境,AI站在了新一轮加速落地的起跑线上。

而在此过程中,联想集团这类厂商优势将更加凸显。按照字节发布的“AI节省计划”,AI应用服务企业的降本成效,与其API调用规模直接挂钩。联想集团近5000亿元的业务规模,意味着巨大的API调用需求,因此其有望以更低的价格抢占用户。

当前,AI应用端市场格局尚不稳定。根据IDC调查,仅有17%的受访客户认为当前的云提供商可以满足他们的AI/ML/GenAI需求,有70%的受访企业计划更换或新增云/AI平台供应商。服务价格作为影响企业AI投入产出比的重要因素,将促使这些企业转向更具价格优势的AI服务提供商,市场或出现向联想集团等大规模企业集中的趋势。

“算力-模型-应用”的正向飞轮

更低的价格,也意味着模型本身更低的训练、推理成本。

从大模型厂商角度来说,优化模型架构、训练方法与数据质量是主要途径。DeepSeek本次成本大幅降低,即得益于将DeepSeek Sparse Attention(DSA)引入核心架构。这项技术在9月的V3.2-Exp中首次亮相,用稀疏注意力替代传统的全量注意力,将计算复杂度从O(L²)降到O(Lk),在不损失性能的前提下大幅提升效率。

而对算力基础设施硬件、服务提供商来说,则意味着市场对更高效率、更低成本产品需求的结构性增长。

12月5日,联想集团举办“异构智算 本地引擎”2025联想异构智算产业联盟高峰论坛暨AI算力基础设施新品发布会,期间发布了新一代高端大模型训练AI服务器——基于英特尔至强6处理器的联想问天WA8080a G5,以及全新升级联想万全异构智算平台4.0。其中,联想万全异构智算平台4.0在千卡训练场景中将MFU从30%提升至60%,并可将大模型预训练时间缩短35%,后训练时间缩短50%,推理场景ROCE网络带宽利用率提升60%,推理性能提升30%。可见,算力基础设施硬件、服务提供商也正致力于通过满足大模型厂商降本需求,提升自身竞争力。

特别是在当前算力基础设施建设面临能源瓶颈的背景下,更优的能效一方面有助于缓解能源紧张,另一方面也通过减少能源消耗降低大模型成本。

据估算,GPT-4的单次训练能耗高达500万kWh,相当于约300万元电力成本;而当前主流大模型在H100芯片集群下,每百万Token推理用电成本也达到3-6元。因此,搭载液冷散热系统的服务器产品,逐渐成为当前标配。联想集团也在升级其Neptune海神液冷解决方案的同时,推出更低能耗的"飞鱼"仿生散热设计和"双循环"相变浸没制冷系统。

联想集团最新一期财报显示,今年三季度,其海神液冷技术收入同比大增154%,远高于行业整体增速。同时,国际研究机构IDC近日发布的《全球服务器市场季度追踪报告》显示,联想集团、戴尔营收实现两位数较高增幅,其中联想集团以26.1%的同比增长,和3.6%的市场份额,跃居全球前三;而超微、浪潮、慧与则呈现负增长,甚至不乏两位数的大幅下滑。这些数据表明,在大模型厂商降本需求下,算力基础设施硬件、服务提供商,因其对行业结构性机遇的把握差异,正出现显著分化,联想集团、戴尔两家企业正不断扩大其领先优势。

综合来看,随着大模型厂商新一轮性价比竞争的展开,AI产业正形成“算力-模型-应用”的全新正向飞轮:应用端企业借助更低的模型API调用成本,加速场景落地,从而推升大模型算力需求,算力基础设施硬件、服务企业则通过更优性能的算力供给,进一步降低大模型成本,为应用端企业加速场景落地提供更强成本助力。

在这一行业飞轮效应中,算力、模型、应用三大环节,均围绕成本开启了新的行业洗牌。联想集团这类算力、应用双环节领先者,通过与大模型在上游算力供给、下游应用落地的双线合作,有望促成整个合作链条的规模扩张与市场份额成长。


本文来源:财经报道网

证券之星资讯

2025-12-19

证券之星资讯

2025-12-19

首页 股票 财经 基金 导航