技术的共识与非共识。
作者|华芸
编辑|何芳
2026 CES 共吸引了约 4300 家企业参展,美国 1476 家,中国 942 家,韩国则以 853 家排在第三,前三名无一例外都是在智能电动车和 AI 产业链上重仓押注的国家。自动驾驶和机器人正在成为 AI 落地最大的应用场景:在人形机器人赛道中,38家参展企业里有 21 家来自中国,占比已经过半,“车轮上的机器人”和“本体机器人”两条线,中国厂商都开始站到第一梯队。
与此同时,投资机构在 CES期间密集强调,AI 基础设施的需求正从“单纯追求算力规模”转向“支撑物理 AI 与复杂推理的新一代硬件体系”,以英伟达 Rubin 为代表的平台,对高带宽内存和企业级存储的消耗,被普遍视为 2026 年推动存储与内存进入新一轮“超级周期”的关键变量。换言之,算力之战正在向“算力+内存+能耗”的系统性博弈升级。
在这一背景下,特斯拉以Grok+FSD 重新塑造行业对 scaling law 的想象,中国车企与供应链企业围绕 SDV 架构、世界模型、Robotaxi 和全球化布局密集出牌,试图在高能耗算力范式与极致工程范式之间,摸索出一条具有中国供应链和智能制造特色的第三条路径。
AI 已经被 CES 写进了全球科技和经济的新“共识”,但真正决定胜负的,仍然是少数敢于在非共识上下注的公司——包括那些敢于承认“L3 不会那么快来、L4 商业模式还不成立”,也仍然愿意从数据、架构和产品体验打磨自己上车 AI 路线的中国玩家。
Scaling law 进入2.0阶段
在 CES 期间,几乎所有聊到自动驾驶的人都会被问同一个问题:怎么看 Tesla 的 Grok+FSD?从海外用户反馈和路测视频来看,最新一代 FSD 在城市道路、交叉路口、环岛等复杂工况下的表现,已经非常接近“有经验的人类司机”,在连贯性、舒适性和整体可用性上的上限被大幅拉高,据了解FSD 在 2025 年累积测试里程是7亿英里左右量级。
但马斯克在评价包括英伟达开源系统在内的新一代自动驾驶 AI 时认为:覆盖 99% 的日常场景其实并不难,真正难的是那分布极长、极稀有的长尾——决定能不能真无人、真 FSD 的,是最后那1% 的边缘场景。他甚至给出了数量级判断:现实世界的复杂度“长尾特别长”,大概要到 100 亿英里级别的训练数据,才能让无监督 FSD 达到真正安全的水准。
从这个角度看,传统意义上“只靠堆参数、堆数据、堆算力”的下一 token scaling law,性价比已经明显下降:继续加倍,也许还有效果,但每一单位提升都变得异常昂贵。这并不意味着 scaling law 失效,而是进入了 2.0 阶段。区别在于:
一条路径是英伟达展示的路径——给出的不是一个单一产品,而是一整个平台:从 Rubin 级 AI 工厂,到Alpamayo 这样的 VLA 世界模型,再到仿真工具和物理AI 数据集,加上大规模仿真和开源工具,去更系统地啃长尾;卖的也不再是一块芯片,而是从云到车的一整条物理 AI基础设施,用开源把需求规模放大,用生态把锁定程度做深。另一路径是特斯拉坚持的极致工程路线,FSD 用端到端网络与真实车队数据闭环持续进化,Grok 作为云端世界模型和认知 Agent 配合。
英伟达开源 Alpamayo被很多人形容为自动驾驶的 “ChatGPT 时刻”:一方面,它确实降低了行业的开发门槛,让更多团队能在一个具备世界模型和因果推理能力的基础上二次开发,也在安全与可解释性上提供了统一语言;另一方面,它并不会自动消灭长尾。复杂场景、成本约束和各家 SOP 差异决定了:要真上车,依旧需要大量面向自身场景的二次开发;而对于不少车企来说,更深的顾虑在于——如果模型、工具、训练环境和车端算力都牢牢掌握在别人手里,长期议价能力和技术主导权该怎么算。
“AI 大基建”时代,怎么不上头?
过去两年,英伟达几乎把自己彻底定位为全球 AI 基建公司的代名词。在算力合作上,与 OpenAI 签署战略协议,为其下一代基础设施部署至少 10GW 级系统,同时和 Google Cloud、Microsoft、Oracle、xAI等合作,用数十万块 GPU 搭AI 基建;Anthropic 也首次完全转向英伟达平台,首期就吃下 1GW 规模、基于 Grace Blackwell 与 Vera Rubin 的算力,这意味着欧美几乎所有头部模型方,都直接或间接“绑”在英伟达的栈上。
生态这边,英伟达则通过新架构,把更多伙伴吸进自己的“物理 AI 联盟”:在自动驾驶上,不仅拉上奔驰、Lucid、JLR、Uber 等整车和出行玩家,也把中国的禾赛科技选为激光雷达合作伙伴之一,让其成为 Rubin/DRIVE 生态里默认的激光方案供应商,但也有专业人士指出从 Rubin 架构尤其是机架级系统更加复杂,导致功耗大幅攀升,Rubin GPU 的热设计功耗可能高达 2300W。
站回中国市场,在 “AI 新基建”成为主旋律的当下,中国也在加速铺自己的大模型和算力体系——从车规 AI 芯片、车云一体平台、超算与数据中心,到地方政府牵头的“城市级智能驾驶基础设施”。
对车企和供应链来说,现实约束在那里——从监管与责任框架看,L3 在中国要大规模铺开,牵涉法律、责任、保险和运营规范,远不是“技术成熟就能上”;以目前政策推进节奏,虽然目前在高速以及限定场景的商用场景L3加快了试点,但指望短期内大面积 L3 普及并不现实。 L4 Robotaxi 经过试点、收紧、局部重启,到今天还没有跑出一个在中国可复制、可持续盈利的模式,场景封闭、补贴依赖、车队运营成本等隐形问题依旧尖锐。
对大多数中国车企而言,更现实的问题反而朴素得多:如何用合理成本的 SoC,把城市 NOA、泊车、高速辅助和车内 Agent 做到极致?如何在供应链上掌握 E/E 架构、基础软件和部分核心算法的 IP;这些事情需要时间打磨。对中国车企来说,先把 L2++/城市 NOA 做到体验与安全的极致,把车内智能体与智驾真正打通,积累自家数据和架构。
技术路线上,scaling law 的确进入了必须叠加世界模型、推理和仿真工具的 2.0 阶段;但在资本和商业上,围绕英伟达和特斯拉展开的这轮“物理 AI 押注”,很可能同样在接近一个需要更冷静审视基本面和真实需求的周期高点。对试图在这场战局中寻找第三条路的中国车企和供应链来说,提醒所有参与者需要思考:在谈论无限扩展的 scaling law 之前,先想清楚自己能承受多长、多少投入、多少能耗的 2.0时代。