在智能驾驶技术的飞速发展中,随着越来越多的车辆配备了自动驾驶功能,消费者和监管机构对“自动驾驶”技术的安全性和可解释性提出了更高的要求。
近期,工信部出台新政策,强调智能驾驶产品的安全性,特别是要求车企明确功能边界,提升系统的安全水平。
在上海车展前夕,宝马集团大中华区总裁兼首席执行官高乐表示,“过度渲染‘完全自动驾驶’概念将大幅增加驾驶安全风险。”宝马也成为率先回应工信部安全新规的车企之一。
“系统安全”不等于“运行安全”
工信部的安全新规为行业树立了的标杆,也推动从“功能驾驶”向“安全驾驶”的行业转型。
目前,许多车企的智能驾驶系统依然存在“黑箱式决策”的问题,即消费者和监管机构很难理解技术背后的逻辑。消费者对“智能驾驶”的认知,往往停留在“自动化驾驶”的层面,他们相当然地认为“系统安全”就意味着“运行安全”,从而忽视技术面对复杂环境时所存在的局限性和潜在风险。
这一问题在众多智能驾驶品牌中表现十分明显,尤其在技术发展初期,车企往往强调系统功能的先进性,但又忽略系统在真实驾驶环境中的表现和可靠性。
例如,一些车企过度宣传“零接管”功能,却没有对车主提出必要的安全提醒和风险管控。随着技术发展逐步进入稳定性和安全性的新阶段,行业亟需解决“黑箱式决策”对消费者带来的“安全误解”。
可解释性AI
智能驾驶的未来
事实上,针对自动驾驶汽车的安全问题,清华大学教授,中国工程院院士李骏在很早之前就提出了“安全大脑”和“运行安全”的概念。
他指出,“安全”是自动驾驶汽车的核心价值,这个价值又体现在自动驾驶的系统安全(SS)和运行安全(OS),自动驾驶汽车投放市场之前必须解决系统安全问题,投放市场后必须解决运行安全问题。这一观点放在智能驾驶上仍然适用。
那就是车企要保证智能驾驶系统的安全,并具备可解释性,让消费者和监管机构可以更好地理解系统的安全性和决策过程;同时,通过“技术手段”保证运行安全。
蘑菇车联的AI网络就可以解决这一问题。AI网络依托MogoMind大模型的能力,能够为车辆全局感知、实时推理和动态决策的支持。通过对周围环境的实时分析,MogoMind能够准确识别潜在风险,并通过车辆系统实时反馈给告或自动驾驶系统。更重要的是,MogoMind具备强大的可解释性,能够为用户提供决策的透明性,帮助驾驶员更清晰地系统如何做出判断和决策的。
技术的透明度和可解释性是智能驾驶发展的未来
在智能驾驶的实际应用中,蘑菇车联的AI网络和MogoMind大模型演练了其强大的决策能力。例如,在海南消博会期间,蘑菇车联通过AI智慧路口实现了智能路况感知和事故预警功能。在此类应用场景中,AI网络通过实时采集路侧数据,精准识别路口的动态变化,并及时向车辆提供路径调整和避让建议,减少交通事故的发生。
这种基于AI网络和大模型的实时决策系统,真正实现了“从感知到决策”的全闭环,有效解决了“黑箱式决策”的问题。
随着智能驾驶技术的不断发展,车企不仅要提供先进的自动驾驶功能,更要保证技术的安全性和可解释性。MogoMind大模型为智能驾驶技术的透明性和可解释性提供了实用的解决方案,让智能驾驶不再是一个无法理解的“黑箱”,而是一个可以信赖的、安全的出行工具。未来的智能驾驶行业,将围绕安全性、透明性和可解释性展开竞争,AI网络和大模型技术将成为行业发展的核心动力。