来源:投资界
原标题:一天吃透一家上市公司:寒武纪
01 历史发展
寒武纪 2016 年诞生,2020 年登陆资本市场,始终聚焦人工智能芯片的研发创新,锚定 AI 领域 “核心处理器” 这一关键角色 —— 如同为智能世界打造 “算力心脏”。
02 公司创始人团队
寒武纪由江西南昌的陈云霁、陈天石兄弟创立,现由弟弟陈天石任总经理。两人成长路径像 “复制粘贴”:哥哥 1983 年生,14 岁进中科大少年班,获计算机博士并参与 “龙芯”;弟弟小两岁,16 岁入同校少年班,同是计算机博士,后任中科院计算所研究员。
读博时哥哥钻研芯片、弟弟主攻 AI,2010 年(当时 AlphaGo 未问世、英伟达还只是显卡厂商),已是龙芯 3 号主架构师的陈云霁与弟弟一拍即合,决定研发 AI 芯片。2016 年借中科院平台成立寒武纪,很快推出全球*深度学习神经网络处理器芯片,打破中国芯片空白,当年拿上亿订单。
兄弟俩定铁律 “芯片是长跑,好东西得拿命熬”。面对英伟达生态垄断,陈天石选差异化,专注底层硬件和工具链。2019 年华为断供致寒武纪失 90% 营收,他砍短期盈利的 IP 授权业务,投云端芯片;2020 年科创板上市遭亏超 50 亿、研发占比 157% 的质疑,他回应 “Intel52 岁、NVIDIA27 岁,寒武纪才 4 岁”。
2022 年美国制裁,陈天石押注国产 7nm 工艺,带团队 300 天造出比肩英伟达 A100 的 “思元 590”。2025 年,这位 85 后以 870 亿身家成江西首富,却称 “寒武纪愿做‘墩子’”。如今其全年营收预计 10-12 亿元(不及英伟达千分之一),但国产替代浪潮正推它迈向中国 AI 芯片新高度。
03 营收拆分情况
寒武纪像 AI 算力的 “水电供应商”—— 通过芯片和软件,把人工智能所需的算力,精准输送到云端数据中心、边缘设备甚至手机里,让各行业的智能应用跑得更快、更高效。其主要业务收入和占比情况如下所示:
04 公司产品线如下:
按产品线勾勒业务版图,寒武纪的 “算力矩阵” 锚定云端、边缘端两条硬件主线,再以 IP 授权及软件业务编织贯通二者的生态网络 。
1)云端产品线是 AI 算力核心动力体系:智能芯片及加速卡为云服务器、数据中心提供高能效算力,支撑 AI 任务增长;训练整机如玄思 1000,可通过多设备组合实现算力扩展,满足性能、鲁棒性等需求。
2)边缘产品线是算力中继站:边缘芯片及加速卡补终端算力短板、缓解云端数据安全与延时问题,适配智能制造、智能交通等多场景。
3)IP 授权及软件是云边端算力衔接中枢:终端智能处理器 IP(1A/1H/1M 系列)嵌入终端 SoC,支撑设备 AI 功能;基础软件 Cambricon Neuware 打破开发壁垒,让 AI 应用可在全系列芯片上便捷运行。
05 公司核心竞争力
05-1、云、边、端全栈布局
从硬件层面,公司搭建云、边、端三大场景 “算力产品网络”:AI 芯片依场景分云端(数据中心,算力功耗最高)、边缘端(智能制造等,次之)、终端(消费电子等,*)三类,公司对应研发云端智能芯片及加速卡、边缘智能芯片及加速卡、终端智能处理器 IP,精准匹配需求。
云端产品
公司云端产品线含云端智能芯片及加速卡、训练整机:前者需适配服务器并经厂商严格认证才能商用,公司需攻克核心技术、跨越高准入门槛;后者是计算集群的单体训练服务器,核心算力来自自研芯片,整机亦为自研。
公司智能计算集群系统业务,是算力基建的 “整体解决方案服务商”,提供全集群搭建与管理服务,面向有技术基础的商业客户,国内市占率居*梯队。
对需建设 AI 计算能力的客户,部分自行采购芯片加速卡集成现有集群,部分则依赖公司定制化软硬件方案以提升运行效率;2021 年中标昆山智能计算中心等项目,在西安沣东、珠海横琴、南京、昆山落子;2022 年中标南京智能计算中心(二、三期)项目,以玄思 1001 为核心算力单元交付集群系统;2023 年参与台州、沈阳算力基建并完成集群交付。
边缘端产品
公司以思元 220 芯片为核心,推出加速卡和智能模组,专攻 AI 边缘推理。边缘计算像终端与云端间的 “中继站”,既补终端算力短板,又解云端数据安全、带宽延迟等难题,驱动智能制造、零售等多领域发展。
思元 220 基于台积电 16nm 工艺,1GHz 主频下,INT4/8/16 性能达 32、16、8TOPS,功耗不足 10W ,支持视觉、语音等多 AI 场景;MLU220 - SOM 智能模组仅信用卡大小,却能实现 16TOPS 算力,功耗仅 15W 。
终端产品端
寒武纪 1A、1H、1M 系列芯片覆盖 0.5-8TOPS 梯度算力,如同为手机、IoT 设备的 SoC 芯片嵌入 “AI 算力插件”,助其快速具备本地 AI 处理能力。
产品以 IP 授权模式交付 —— 将芯片功能模块设计蓝图授权客户集成至自身芯片,经流片成最终产品;收费采用 “固定费用(按授权进度)+ 提成费用(按季度销量)” 模式,基本无成本。目前多家国内头部芯片设计公司已获授权,相关产品集成于上亿台智能终端。
05-2、基础系统软件平台
公司为云边端全系列芯片与处理器,配套统一基础系统软件 Cambricon Neuware(含开发工具链)。
其像算力生态的 “通用衔接枢纽”,打破场景开发壁垒,兼具高性能、灵活与可扩展性;同一 AI 应用无需移植,即可如通用插头适配不同插座般,在全系列产品上高效运行。依托它,程序员可跨云边端开发 AI 应用,提升开发部署效率,也能让异构硬件资源如精密机组般统一管理、调度与协同计算。
公司软件平台分训练与推理两类:
(1)训练软件平台如同 “开源生态的适配桥梁”,拥抱开源研发高性能通用训练软件栈,原生支持 Pytorch、Tensorflow,提供 Profiler、分布式训练等完善基建,用户模型代码可快速迁移;2024 年底前持续迭代 Megatron 等分布式组件,支撑主流大模型训练需求,缩短适配周期,还新增对 DeepSeek、Llama 等系列大模型的支持。
(2)推理软件平台以 2021 年发布的 MagicMind 为核心 —— 它是业界*基于 MLIR 图编译技术实现商用的推理引擎,如同 “推理业务的快速转换器”,用户投入极少开发成本,即可将推理业务部署到全系列产品;2024 年底前已适配优化 DeepSeek 等文生文模型,及 Flux 等多模态模型。
公司云端、边缘端、终端的智能芯片、处理器 IP 及基础系统软件,都基于自研处理器架构,且搭建在自研 MLU 指令集上 —— 这就像建房子用自家设计的地基和核心图纸,能稳稳抓牢核心技术自主权,思元 590 还会采用全新的 MLUarch05 架构。
研发通用型智能芯片和其基础系统软件,堪比搭一套极端复杂的大型精密设备:要掌握大量关键技术,涉及面广、难度高,而处理器微架构和指令集是*层的核心。
①一方面,公司已自主研发四代智能处理器微架构,比如思元 370 用 MLUarch03,思元 590 将用新的 MLUarch05;
②另一方面,指令集是芯片生态的 “基石”,公司是国际上早做智能处理器指令集的少数企业,2016 年起已搞出四代商用指令集,同一套就能支持 AI 训练和推理,适配云、边、端不同场景,帮公司建起云边端一体、训练推理融合的软件平台和特色 AI 生态。
截至 2024 年末,公司还在研发新一代微架构和指令集,会重点优化大模型训练推理场景,进一步提升产品在编程灵活性、易用性、性能、功耗等方面的竞争力。
06 AI 算力芯片市场
行业市场详情如下:一天吃透一条产业链:AI 芯片(引爆市场)
2025 年中国企业 AI 算力投入约 1200 亿美元,其中 50% 用于 AI 芯片采购,按单卡 10 万元估算需 300-400 万张卡;但供给端缺口显著,英伟达 H20 仅到货 50 万张,叠加国产产能不足,全年缺 150-200 万张,2026 年缺口或超 200 万张。寒武纪凭借下一代思元 590/690 性能提升 70%-80%、2025 年产能翻倍,有望承接超 30% 国产替代需求。
不过 2024 年全球 AI 芯片市场中,英伟达等三巨头占 91%(英伟达独占 80%),寒武纪仅占 1%,未来仍有不少空间。
国内外的主要竞争对手情况如下:
07 未来展望
寒武纪作为国内AI芯片先行者,正面临技术迭代与商业化双重挑战。短期看,需突破高端制程限制,优化软硬件生态;长期而言,国产算力需求爆发或带来机遇。若能在自动驾驶、大模型训练等领域站稳,有望成为智能时代的底层引擎。