来源:证券时报
媒体
2025-06-30 12:12:52
(原标题:华为首个!重磅发布!)
6月30日,华为宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型(盘古Pro MoE 72B)。此外,基于昇腾的模型推理技术也同步开源。华为表示,此举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
据了解,华为最新开源的Pro MoE 72B大模型,在参数量仅为720亿,激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至可以媲美千亿级模型的性能表现。在业界权威大模型榜单Super CLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。
最近一段时间以来,华为公开了一系列基于昇腾的大模型技术,让国内AI开发者备感期待。
今年6月20日举办的华为开发者大会2025上,华为重磅发布了盘古大模型5.5。全新升级的盘古大模型5.5包含了五大基础模型,分别面向NLP(自然语言处理)、多模态、预测、科学计算、计算机视觉领域,推动大模型成为行业数智化转型的核心动力。会上,华为还发布了基于Cloud Matrix384超节点的新一代昇腾AI云服务,将384颗昇腾NPU和192颗鲲鹏CPU通过高速网络Matrix Link全对等互联,形成一台超级“AI服务器”,单卡推理吞吐量跃升到2300Tokens/s,可为大模型应用提供“澎湃算力”。
值得注意的是,今年5月30日,华为还重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE。这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。同时,华为发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。
这一系列突破,更为关键的意义在于,华为盘古大模型是基于昇腾云的全栈软硬件训练而成的,这标志着基于昇腾架构可以打造出世界一流大模型。华为不仅完成了国产算力+国产模型的全流程自主可控的训练实践,同时在集群训练系统的性能上也实现了业界领先,这意味着实现了从硬件到软件、从训练到优化、从基础研究到工程落地的“全栈国产化”和“全流程自主可控”的闭环,国产AI基础设施的自主创新能力得到了进一步验证。
此外,与其他大模型厂商相比,华为在大模型战略上一直独树一帜,强调“不作诗,只做事”,坚持为千行万业“解难题,做难事”,加速千行万业智能化升级。在盘古大模型5.5发布的同时,华为五大盘古行业思考大模型(盘古医学、盘古金融、盘古政务、盘古工业、盘古汽车)也同步上线。
华为常务董事、华为云计算CEO张平安介绍,在过去的一年中,盘古大模型持续深耕行业,已在30多个行业、500多个场景中落地,在政务、金融、制造、医疗、煤矿、钢铁、铁路、自动驾驶、气象等领域发挥巨大价值,重塑千行万业。
因此,此次华为宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型,一方面有助于更多开发者基于国产算力平台开发大模型技术,进一步扩展昇腾生态;另一方面在开源的带动下,有助于吸引更多垂直行业以盘古大模型为基础打造智能化解决方案,推动大模型更广泛更深入地赋能千行百业。
责编:叶舒筠
校对:苏焕文
证券时报网
2025-06-30
证券时报网
2025-06-30
证券时报网
2025-06-30
证券时报网
2025-06-30
证券时报
2025-06-30
证券时报
2025-06-30
证券之星资讯
2025-06-30
证券之星资讯
2025-06-30
证券之星资讯
2025-06-30