上周三深夜加班回家,我开着车走在城郊那条没什么路灯的路上。突然从路边窜出来一只流浪狗,我下意识猛打方向盘,差点撞到护栏上。手心全是汗的那一刻,我脑子里突然蹦出个念头 —— 要是这是辆自动驾驶的车,它会怎么选?
是直接撞向那只狗,还是像我一样打方向躲过去?可万一躲的时候撞到旁边车道的车,或者路边突然有人呢?这问题我后来跟好几个朋友聊过,没一个人能说出个准主意。
我发小老周是做汽车工程的,前阵子一起吃饭还聊起这事儿。他说他们公司以前组织过一次内部讨论,模拟了个场景:自动驾驶汽车在高速上跑,前方突然出现一群横穿马路的行人,旁边车道有辆正常行驶的轿车,后面还跟着辆大货车。要是直接撞行人,可能会出人命;要是变道躲行人,就得跟旁边轿车追尾;要是急刹车,后面大货车很可能刹不住,直接把它撞成铁饼。
当时他们部门二十多个人,吵了快三个小时没个结果。有说肯定得优先保人,毕竟生命最宝贵;有反驳说那旁边车道的司机招谁惹谁了,凭什么为别人的过错买单;还有人说要是车上还坐着乘客呢,难道要牺牲车主去保别人?
后来我特意查了点资料,发现还真有机构做过类似调查。有个数据说,大概六成的人觉得自动驾驶应该优先保护更多的生命,比如牺牲一个人去保五个人。可真问到 “要是你自己是那一个人,你还同意吗”,大部分人又摇头了。
这事儿让我想起我邻居家的事。去年他儿子买了辆带辅助驾驶功能的车,有次在小区门口,系统没识别出突然跑出来的小孩,还好他儿子反应快踩了刹车。后来他跟我吐槽,说现在这技术看着先进,真遇到事儿还是得靠人。可话又说回来,要是当时他儿子没反应过来,车自己做了选择,不管是撞了小孩还是撞了路边的树,结果都难接受。
其实细想一下,这问题不光是技术的事儿,还牵扯到好多别的。比如法律上,要是自动驾驶车出了事故,责任算谁的?是车主、车企,还是编写程序的工程师?有次我跟做律师的同学聊起这个,他说现在这方面的法律还不太完善,真遇到官司,扯清楚责任就得花好长时间。
还有道德层面,这才是最让人头疼的。你说程序该怎么设定?是按照 “牺牲少数保多数” 的原则,还是 “优先保护车主”?要是设定成牺牲少数保多数,谁愿意买这种车啊,万一自己成了那个 “少数” 怎么办?可要是优先保护车主,那路上的行人和其他司机又该怎么办?
前阵子刷到个视频,国外有个测试,让自动驾驶车在 “撞向一个闯红灯的行人” 和 “避开行人但撞到路边正常行走的人” 之间做选择。结果那车最后居然直接停那儿了,因为程序没办法判断哪个选择更 “对”。可现实中哪有那么多时间让车犹豫,一秒钟的延迟可能就是一场事故。
我有时候会想,要是以后满大街都是自动驾驶车,会不会反而减少事故?毕竟人会疲劳、会分心、会情绪化开车,机器不会。可机器没办法像人一样,在瞬间做出带有情感的判断。比如看到前面是个老人和小孩,人可能会下意识优先避开更脆弱的一方,但机器只会按照程序设定来,而程序永远不可能涵盖所有情况。
有次跟我爸聊起这事儿,他那代人对机器总有点不信任。他说:“再好的机器也是人做的,人都想不明白的事儿,机器能想明白?” 我当时没反驳他,因为我也觉得这话有道理。自动驾驶技术再先进,最终还是得靠人来设定规则,可这规则怎么定,至今没人能给出完美答案。
说到底,撞人还是撞车的抉择,表面上是技术问题,其实是人性和道德的问题。我们总希望机器能做出最 “正确” 的选择,可这个 “正确” 在不同人眼里,定义完全不一样。有人觉得生命平等,有人觉得应该优先保护遵守规则的人,有人觉得车主的安全最重要。
我现在开车的时候,偶尔还会琢磨这个问题。有时候看到路边的行人,会想要是现在车自己开,遇到突发情况会怎么办。但想了这么久,还是没答案。或许这个问题本来就没有标准答案,就像生活里很多事儿一样,怎么选都有遗憾。
你们开车的时候,有没有想过类似的问题?要是换成你们,会希望自动驾驶车在那种两难的情况下,做出怎样的选择?