为啥武汉无人车也“呆”了一次

2026-04-02 jxgzhc 0 条评论 0 阅读
📰 资讯来源
量子位

🔗 查看原文 →

📖 阅读导引

3月31日晚,在武汉市区内,有市民发现部分“萝卜快跑”无人驾驶车在路上停摆。 好在交管部门和萝卜快跑的工作人员火速赶到,乘客安全下车,没有人员伤亡,交通路段也及时恢复了正常秩序。…

3月31日晚,在武汉市区内,有市民发现部分“萝卜快跑”无人驾驶车在路上停摆。

好在交管部门和萝卜快跑的工作人员火速赶到,乘客安全下车,没有人员伤亡,交通路段也及时恢复了正常秩序。

不过,关于这次事件的讨论,却仍在网上持续发酵。

大家都在好奇,自动驾驶车辆为什么会突然“愣”在路上。

几个月前在大洋彼岸,另一位顶尖无人车玩家Waymo,也发生过一次更大规模的停摆事件……

据知情人士向智能车参考透露,萝卜快跑发生“停滞”事件,其实是车辆在自检到潜在风险时,系统为保障安全给出的主动策略

所以,要解答无人车停摆这个疑问,我们就得抛开人类驾驶的思维习惯,先从自动驾驶系统的运行逻辑说起。

对人类司机而言,驾驶是一门融合了经验、预判甚至有些许“赌一把”心理的艺术。

比如看到一个昏暗难辨的路口,人类老司机可能会减速、探头、仔细观察,然后凭借经验通过。这期间,大脑几乎是瞬间完成了风险衡量,给出的结论是事故概率似乎不高,可以通行

但“AI司机”的大脑不同。它的核心逻辑不是“大概率没事”,而是“必须确定没事”

因此,为了保障这套逻辑能运行无误,安全方面就要设置多重预防,也就是我们常说的“安全冗余”

而在自动驾驶系统中,这套安全冗余设计体现在感知-决策-执行三个层面。

当前主流的L4无人车玩家(除了坚持“纯视觉”的特斯拉),大多都为产品安装了激光雷达、毫米波雷达、高清摄像头等多种传感器,为的是对周围环境进行更精准全面的感知。

这些传感器各司其职,把各自探测到的数据汇总到一起,由系统做融合判断,接下来就轮到决策层发力。

决策层中,自动驾驶车辆的安全冗余和飞机类似,关键系统通常都会配有主、备两套计算大脑,确保一个“死机”的情况下,另一个能瞬间接管。

绝大多数时候,由传感器提供的数据会保持一致,决策层根据数据发出相应指令,让车辆实现自动驾驶。

但有时遇到极端或长尾场景,传感器偶尔也会出现分歧,对同一障碍物判断不一。

此时,系统不会盲目相信任何一个传感器,而是会进入“验证模式”——多确认几帧数据,或者等待更清晰的场景出现。

这个过程需要时间,如果在某些极端场景下,比如光线突变、恶劣天气,系统确认信息的时间可能还会被拉长。

遇到系统经过综合判断,仍无法以足够高的置信度做出安全决策时,执行层就会按照底层代码的终极安全指令,启动“最小风险策略”

这一切冗余设计的终极目标,都是为了确保在任何单一部件甚至组合出现问题时,系统仍保有最后、也是最根本的能力:把车安全、平稳地停下来,避免可能的事故发生

就好比家用车的发动机,故障灯亮起后,车辆会自动限速或熄火保护——这是行业通用的安全底线逻辑。

而这种异常情况下做出的“停滞”选择,其实有一个更贴切的称呼,叫做“降级措施”

“降级措施”本身并非自动驾驶独有,实则已经在其他领域的关键安全系统上沿用了数十年。

在民航客机飞行途中,如果传感器数据出现异常,飞机自动驾驶仪会自动切换到“降级模式”,或者会直接交还给飞行员手动操控。

这个设计的理念在于,在万米高空中,“不确定”意味着风险,而风险不能靠硬闯来解决。

这是对安全最负责任的处理方式,也是航空领域沿用数十年的冗余思路。

对应到坚持同一逻辑的自动驾驶行业中,这种“保守”其实也是自动驾驶区别于人类司机的核心价值。

人类可能因为赶时间等因素,选择相对更冒进的驾驶行为;而机器则会严格依据概率和规则,选择最安全的动作——即使这个动作,现在看起来可能有点“呆”。

当然,有人会问:既然是安全设计,为什么不能做得更“丝滑”一点?为什么不能像老司机一样,一边判断一边通过?

本文转载自量子位,版权归原作者所有

jxgzhc

暂无个人简介

查看全部文章
上一篇 下一篇

评论

评论已关闭。