文 | 钱钱
编辑 | 阿景
12月20日,旧金山一场变电站火灾引发全城停电。
就在大家忙着找蜡烛的时候,街头出现了诡异一幕,数十辆Waymo无人驾驶出租车在没有信号灯的路口集体"发呆",双闪灯亮成一片,活生生把路口变成了停车场。
这些平时在街头穿梭自如的科技宠儿,突然成了交通堵塞的罪魁祸首。
这场景既有点科幻又透着荒诞。
没了信号灯,AI司机集体"失忆"
Waymo官方后来解释,当时系统检测到路口没有信号灯,进入了"安全优先"模式。
说白了就是,没有规则可遵循的时候,AI选择了最保守的做法停下来不动。
问题是,人类司机遇到这种情况,虽然也会减速,但总会通过眼神交流、手势示意慢慢把车挪过去。
7000多次成功处理复杂路况的记录,在真正的"无规则"场景面前,显得有点苍白。
加州公用事业委员会很快介入调查。
这让人想起两年前Waymo刚获得无安全员运营许可时,市政官员就担心过,这些机器人遇到极端情况会怎么样?现在答案来了。
马斯克跳出来说特斯拉Robotaxi没受影响,这话听着有点别扭。
要知道当时特斯拉还没拿到加州无安全员运营许可,两种技术路线根本没法直接比较。
规则一缺位,算法就"抓瞎"
交通信号灯对自动驾驶来说,不只是红绿灯那么简单。
它更像是AI的"规则锚点",一旦这个锚点消失,整个决策系统就容易陷入混乱。
人类司机能通过观察其他车辆动向、行人反应来判断路况,但AI不行。
它习惯了明确的指令输入,突然让它在"混沌环境"里做决策,就像学生突然遇到没复习过的考题。
行业里总说"数亿英里路测数据",但这些数据大多是正常路况下的。
像全城停电这种极端情况,既难遇到又难模拟,自然成了AI的知识盲区。
Waymo这事告诉我们,算法再先进,没有覆盖极端场景的数据也是白搭。
就像巧妇难为无米之炊,AI遇到没见过的情况,同样会"抓瞎"。
车队规模越大,遇到极端情况的概率就越高。
这就形成了一个悖论,商业扩张越快,暴露的问题可能越多,公众质疑声也越大。
人类司机那种"见招拆招"的能力,AI目前还学不会。
遇到突发状况,老司机的经验判断和灵活反应,确实比AI的"规则依赖症"靠谱。
打补丁容易,改思路难
Waymo事后推出了三项紧急措施,软件升级、政企联动、人员培训。
这些措施能解决眼前问题,但治标不治本。
软件里加个"区域性停电"的判断逻辑,听起来简单。
但真遇到没见过的极端场景,AI还是会犯难。
这就像给系统打补丁,永远追不上现实的复杂程度。
行业现在需要的可能不是更好的"规则拟合",而是真正的"世界理解"能力。
让AI不只懂交通规则,还懂物理规律,甚至懂点人情世故。
用虚拟技术模拟极端场景训练AI,这倒是个方向。
但成本不低,效果也得打个问号。
毕竟模拟一万次,不如真遇到一次来得深刻。
资本也该冷静了,别光看里程数和估值。
极端场景下的可靠性,或许才是衡量自动驾驶真实水平的标尺。
与其在现有技术框架里修修补补,不如换个思路。
或许L4和低级别自动驾驶结合,或者人机协同,才是更现实的过渡方案。
这次事件不是偶然,是自动驾驶"规则依赖症"的必然爆发。
从"适应规则"到"理解世界",AI还有很长的路要走。
未来的自动驾驶,得学会在漆黑的混乱路口,像老司机那样既谨慎又果断地前行。
这一天什么时候到来,现在还真不好说。