“我曾信任系统,直到它操控着车撞向石墩”


早高峰,一辆车速为90千米/小时的电车平稳行驶在从上海到常州的高架桥上,智能驾驶系统正在运行。
前方出现一块慢行指示牌,但“慢”字基本掉落,只剩下外圈闪烁的红灯。对于人类驾驶员来说,一眼便知是路牌出现了问题。
而系统却将之错判为“红灯”,在检测到的一瞬间,直接急刹车。
还好驾驶员康林经验丰富,他在远处看到指示牌时,就预测到系统可能会错判,右脚早已放在油门上,提前进入接管状态。急刹的瞬间,康林一脚踩下油门,几乎在系统错判的同时接管了车辆,避免了可能造成的追尾事故。
作为智能驾驶系统安全测试员,康林有近十年的驾龄,测试过市面上几乎所有的智能驾驶系统。然而,并非所有人都像康林一样对系统如此了解。
3月29日晚,安徽铜陵德上高速发生一起交通事故,造成3人死亡。事发当晚,三名女生驾驶小米SU7标准版电车从武汉出发开往安徽,准备参加事业编考试,车辆猛烈撞击到高速公路因封闭施工而临时设置改道口的隔离水泥桩,车辆严重受损并起火。
事故发生的同一天,3月29日,中国电动汽车百人会论坛(2025)高层论坛在北京召开。在论坛上,“智能驾驶”也成为与会人员口中的高频词。
截至目前,虽然警方尚未公布此次事故的具体调查结果,但它却犹如一记警钟,在智能驾驶技术狂飙突进的时代骤然敲响:当人类与系统共享方向盘之时,我们是否真的厘清了彼此的权责边界?
人与系统,一念之间
只有2秒到4秒。
事故发生前,处于NOA(即领航辅助驾驶)智能辅助驾驶状态的这辆小米SU7在高速上以116千米/小时的速度行驶着。
根据小米公布的数据:当晚22点44分24秒,NOA系统提醒前方有障碍物;22点44分25秒,驾驶员罗某接管;在22点44分26秒到28秒之间,被罗某接管的车辆以97千米/小时的速度,撞上了隔离水泥桩。
这是小米官方在事后第一次回应里透露出的数据:在此次智能辅助驾驶状态中,留给驾驶者的反应时间只有2秒到4秒。
罗某母亲曾发出质问:谁能在2秒内立马反应过来呢?
4月1日晚,罗某父亲告诉解放日报·上观新闻记者,“事情过去4天了,还没有等到小米公司的任何人来找过我们。”此前,他通过媒体向雷军“隔空发问”:车辆的AEB(即自动紧急刹车系统)为何没有触发?电池为何会爆燃?车门为何会打不开?
当天晚上,小米汽车CEO雷军通过微博发声:“代表小米承诺,无论发生什么,小米都不会回避,我们将持续配合警方调查,跟进事情处理的进展,并尽最大努力回应家属和社会关心的问题。”
曾在多家车企工作过的资深智能驾驶算法工程师李衡关注到了事故的公告和路况,他注意到,事故路段当时正在进行改造施工,路面上放置了不少锥形桶。
对智能驾驶系统来说,“对锥形桶或者一些硬性障碍的识别,精度可能没有那么高,系统对于结构化的道路,比如说正常的行驶道路或者匝道识别概率更高。”李衡表示,除了感知算法外,还涉及AEB自动紧急制动系统,这是汽车主动安全技术的一种。它独立于智能驾驶系统之外,正常行驶也会有类似的系统,如果前方有障碍物,会自动进行制动,对于驾驶者来说构成双重保障。
但小米官方在4月1日晚的回应里表示,SU7标准版有前向防碰撞辅助功能包括碰撞预警(FCW)和紧急制动(AEB)两个子功能,作用对象为车辆、行人、二轮车三类目标,其中AEB功能工作速度为8—135千米/小时之间。该功能和行业同配置的AEB功能类似,目前不响应锥桶、水马、石头、动物等障碍物。

4月1日晚,微博“小米汽车”发布了《关于大家关心问题的回答》一文。
作为智能驾驶系统安全测试员,康林测试过目前市面上几乎所有车企的智能驾驶系统,他比绝大多数人都更了解系统的“脾气”。
“事故路段是高速,是目前智能驾驶系统运用比较成熟的场景。但施工路段又是最不适合使用智能驾驶系统的场景,目前智能驾驶的实现还离不开高精地图,但地图上只会显示道路施工,并不会告诉驾驶员,究竟是道路左侧还是右侧施工。”康林表示。
施工路段往往会设有限速标志。有曾行驶过事故路段的车主表示,该路段设有限速40千米/小时的标志。网友们质疑,系统是否没有识别出限速信息?
李衡表示,很多施工路段的限速往往是临时的,可能不会出现在地图数据里。当临时情况发生时,“只能靠系统的‘视觉’”,康林表示。
据了解,此次发生事故的车辆为小米SU7标准版,配备的是纯视觉感知方案(摄像头+毫米波雷达)。
有分析认为,如果是搭载激光雷达的高配车型,或许就能留给驾驶员更多的反应时间。业内人士解释,与纯视觉感知系统相比,激光雷达的感知距离更远,能达到约200米。但李衡也提及,激光雷达的精度以及与软件系统的适配程度,都会影响其感知距离。
施工限速信息如果能通过道路管理部门的联网系统实时传输给车辆,识别就会更准确,但这不是某一家车企能单独推动的,需要整个行业和政府的共同努力,李衡表示。
系统与硬件不可控,它们都无法取代人的常识判断。
与康林在高架上遇到指示牌的情况相似,同样是测试员的谢春晓,也遇到过系统误判的情况。
曾有一次,谢春晓在测试时,车辆前方的道路上有一块轮胎的胎皮,系统判定其为障碍物后启动紧急制动。“胎皮在高速上很常见,人类驾驶员能判别这其实并不影响驾驶,直接压过去就行。然而系统只能识别障碍物,但这个障碍物到底能不能压?到底是压过去还是绕过去?系统分不清。”
“人的意识和系统的‘意识’在最后几秒有一个博弈的过程。这个过程很微妙,一旦博弈失败,后果可能不堪设想。”谢春晓说。
听闻小米SU7事故后,康林也为最后一瞬间的博弈失败感到遗憾。“如果驾驶员完全相信系统,不主动接管车辆的话,系统可能会在车接触到锥桶前急刹,抛开舒适度不谈,说不定最后能刹住。如果驾驶员接管车辆,就应该直接踩死油门,但官方公布的数据显示,油门也没有全部踩死。”
智驾不“智”?
“请手握方向盘。”在小米官方披露的信息中,提到事故车辆曾经发出轻度分心报警,NOA曾经发出过脱手预警提示。
“在驾驶车辆过程中,驾驶员务必全程保持注意力集中,保持手握方向盘,时刻关注车辆周围路况,并做好随时接管车辆的准备,切勿依靠智能领航功能来应对突发的紧急情况,否则可能导致严重伤害或死亡。”《小米SU7车主手册》里这样写道。
如此看来,遇难者罗某似乎并没有严格遵守这一规则。

遇难者父亲罗某拍摄的事故车照片。
2023年购买带有智能驾驶系统的电车后,车主甘敏牢记了这一要求,但她依然经历了一场系统失误带来的“惊魂”。
几天前,甘敏的车辆行驶在沈海高速左二车道时,车速表定格在110千米/小时。前方道路理应直行,甘敏的方向盘却毫无征兆地向左扭动。
甘敏双手紧握,感觉到一股力量与她争夺控制权——事后她才知道,系统将一条道路上本不应该出现的斜插“车道线”误判为“直行路径”。在未发出任何预警或变道信号的情况下,车辆径直冲向左侧车道。
而在后视镜中,一辆银色轿车的车头正在急速逼近。
一切都发生得太快了。甘敏的车辆左后侧将对方车辆右前车头“撕裂”的瞬间,金属撞击声与轮胎摩擦声几乎同时炸开,淹没了一切。
“砰”的一声,车中所有人都感受到了剧烈的震感。下一秒,甘敏猛拉方向盘,车身剧烈晃动,她立马控制车辆向右前方驾驶,逐渐减速,开往应急车道。
如今回想起事故发生的那一秒,甘敏依旧不敢相信车辆会在自己的监管下自主抢道。
事后,车企并不认为这是智能驾驶系统的逻辑有问题,问题在那条乱入的线。“系统认为自己在走直线,所以无需打转向灯也无需预警,后方车辆才是错误驾驶,无需避让。”
对于这一解释,甘敏感到愤怒且不解。“如果系统认定自己在走直线,就无需避让障碍物吗?直行的优先级是否就高于避让障碍物?”

高速上乱入的白线,影响系统的判断。受访者供图
事后让甘敏觉得万幸的是,后方车辆里的四名乘客中目前只有一人有明显伤情。甘敏第一时间承担了违规变道的全责,也主动承担了伤者的食宿费用。但对于车企和高速的路政,甘敏仍觉得他们应该出来承担部分责任。
2023年购车后,甘敏就申请成为该车企品牌的志愿者。第二年,她还拿到了智能驾驶领航员的称号,为该车企义务测试城区的智能驾驶系统并收集数据。
“毕竟是我买的第一台车,我不希望自己看错它。”甘敏说道,“我希望这个品牌能好,因为我也是驾驶员。”

甘敏收集的该车企品牌的冰箱贴。受访者供图
至今,甘敏都不知道高速上那道多出来的“白线”究竟是什么,她在等待路政部门的回复。但她更希望,在“白线”消失之前,车企能够在系统上进行改进,避免其他车主在同路段发生事故。
此前,在数据分析结果出来后,车企的技术人员告知甘敏,即便车辆被白线误导后向左变道,系统一般会在误入的白线消失后,再次识别两侧划线,并将车居中,她当时应该信任智能驾驶系统。
甘敏当场反驳,人的掌控不仅是必要的,更是所有人自我保护的潜意识。
“如果我不去干预它,这场车祸会是什么结果呢?没有人知道。”但甘敏想,最起码这是那一秒她作为人类做出的最好的抉择。
甘敏的情绪,康林非常理解。“很多同事刚入行做测试员时,都会感到生气。大家会觉得,明明大部分时间系统不会有问题,为什么偶尔还是会莫名其妙出个错?”
康林认为,这是人和系统的思维的差异。“目前智能驾驶的实现主要还是靠设置的场景和程序来赋予它驾驶能力。”
在谢春晓看来,与人相比,系统显得有点死板,不懂得随机应变。他举了个例子,在超车场景中,如果人来开车,车辆与前车距离70米,人可以根据周边实际的路况选择超车或减速在后方跟着。但如果是系统,它会根据工程师提前设置好的程序来操作,若程序规定小于80米必须要超车,系统就会执行。但很有可能,在当时的路况下,超车并不是最好的选择。
测试的车辆多了,康林能感受到,目前不同车企研发的智能驾驶系统遇到的问题都差不多,基本不会出乎他的意料。
针对甘敏的疑惑,他举例,摄像头基本都安装在车顶,导致车辆对道路前方的感知能力较强,其他车辆若从左前方或者右前方夹击,系统知道要停车。但如果有车辆从左后方或者右后方快速逼近,即便四周装有雷达,系统要么由于车速过快不能及时识别到,要么就算识别到后也只会给车主播报提示,这是智能驾驶系统目前不能避免的问题。
“在系统看来,不是它变道有误,而是后方车辆主动撞上来的。”康林表示。
同时,李衡强调,当算法或者规则的叠加越来越多时,系统总会遇到一些“打架”的时刻。“这导致系统能解决98%的场景,但总有2%无法解决。或者在能解决的场景里,也会存在互相排斥的情况。基于场景和算法的系统本来就无法完全处理所有的场景。”
也正是因此,目前各大车企都在尝试推出另一种系统的解决方案——从端到端。
“你可以将之理解为让系统自行学习。即通过图像识别,直接将识别的内容转化为路径,提供给智能驾驶系统使用。”李衡表示,目前所有车企都在进行端到端的“军备竞赛”,这或许是能让智能驾驶真正“智能”的最终方式,但还有很长的路要走。
把信任交给系统之后
我国《汽车驾驶自动化分级》(GB/T 40429-2021)将自动驾驶级别划分为L0级到L5级六个等级。其中,L0级至L2级为辅助驾驶,驾驶员需全程监控驾驶;L3级为有条件自动驾驶,驾驶员在紧急情况时执行接管;L4级为高度自动驾驶;L5级为完全自动驾驶。
康林和李衡都表示,目前国内车企主推的基本都是L2+级,其实L2级就相当于辅助驾驶, 要求驾驶员全程监控路况并随时接管。


根据该国家标准,L1级和L2级驾驶辅助在用户角色的定位上没有差异。图源:《汽车驾驶自动化分级》(GB/T 40429-2021)
在车辆撞上石柱前,刚刚接触智能驾驶系统不到半年时间的刘艳,并不知道L2级代表了什么。
刘艳考出驾照至今已有6年多,但她正式开车是从去年底开始。买车时,销售曾告诉过她,“目前智能驾驶还不成熟,只能辅佐,自己还得多留心。”丈夫也叮嘱她,“新手最好不要使用智能驾驶”。
但刘艳觉得,新手没有安全感才需要智能驾驶的帮助。平时,半小时以内的车程她会自己开,一小时以上的车程她都会用智能驾驶系统。
半个月前的一次出行,她将目的地告诉系统后,就安心地握着方向盘让系统带着自己前行。
然而,在一个路口,本应右拐的车辆,在系统的支配下却往左开了。当大部分车身进入左转车道后,车又突然停下,堵住了红绿灯路口。后方不断传来的鸣笛声,让刘艳一时间有些紧张。但她以为系统是在避让车辆,加之系统并没有提示人来接管,刘艳下意识的反应是等待。
而当后方车辆通过后,刘艳的车却又突然右转,直直地撞上了路边的石墩。
刘艳惊呆了。她从未想过系统无法在慢速的情况下识别静止的物品。
事后,刘艳在社交媒体上发帖讲述了这一情况,有网友在下面评论,她才知道系统原来是分级的。
在刘艳的脑海里,“辅助驾驶”和“智能驾驶”是同一个意思。“智能驾驶就像是真正的司机,而人坐在旁边相当于教练,只需要有问题时稍微把控风险即可。”刘艳说。她觉得,自己这一次是因为过度信任而“栽了跟头”。
从业多年,谢晓春觉得把控制权全权交给系统,风险很大。“现在学驾照买车都变得更加普遍了,大家似乎都忘了,驾驶这件事不仅专业,危险系数也很大。”
在这次出事前,甘敏一直开着自己的电车在城区上下班。由于城市的路况和交通环境复杂,她不敢在上下班路上使用智能驾驶功能。
“反常地”选择打开智能驾驶模式时,她与公司老板正在出差的高速上。在她看来,与城市道路相比,高速道路比较好开,容易疲惫,更适合车辆智能驾驶。
事后,甘敏把行车记录仪记录下的事故录像发布在社交平台上,一时间,她受到不少质疑:左后方有车,驾驶员看到时为何不提前接管?
但甘敏认为,正是因为并行的直行车道有车,她觉得系统在平稳行驶的情况下,无论如何都不会擅自抢道。智能驾驶系统仅仅辅助车辆直行,变道和转向应该取决于驾驶员的掌控——这是她一直相信和坚持去做的。
但这一次,她的信任被辜负了。下车后,对方车辆的车主问他的第一句话就是,“你是不是酒驾了?”甘敏说,那一刻她不知道怎么解释。

后方车辆受到冲撞后,前保险杠几乎整个脱落,差点冲出车道。受访者供图
自动驾驶行业从业者朱迪表示,在辅助驾驶中,人与车的关系应该是人机共驾。而人机共驾的前提是,驾驶员要对车辆以及车辆所搭载的系统非常熟悉,明确辅助驾驶系统的能力边界在哪里。
“就好比骑一匹马,你要知道马最多能跳几米的坑。如果它只能跳2米,那么前方有4米的坑,你就不应该让这匹马去跳。”朱迪提到,驾驶员需要在长期的驾驶过程中,摸清系统的能力边界,这样才能明确哪些路况,系统能搞定,哪些不能,需要驾驶员提前接管。
在朱迪看来,这是对自己、他人以及社会的负责。
谁来买单
清明假期过后,康林将与谢春晓一起前往海南,进行智能驾驶系统的环岛路况测试。
他将自己的工作形容为“找系统的麻烦”。“相当于系统在模拟场景中已经是‘优秀毕业生’了,再拿给我们做路测,接着更新系统给用户,根据用户反馈,再继续更新。”
康林表示,如今车企都在“卷”智能驾驶,系统更新迭代的速度越来越快。以前更新的频率是3至6个月一次,现在基本上每周或者半个月就要更新一次。
他和李衡都注意到,近几年,各大车企纷纷将辅助驾驶往“智能驾驶”“自动驾驶”方面宣传,诸如“从车位到车位”和“0接管”等话术,也频繁出现在车企的广告语中。李衡认为,车企宣传普遍处于一种错误的军备竞赛当中,每家车企都以“智能驾驶”为噱头招揽消费者,间接让消费者高估了现阶段辅助驾驶的技术。
当车企将“智能驾驶”作为卖点时,驾驶技术的进步与消费者安全认知的鸿沟也正在扩大。李衡提醒,消费者需要深刻意识到车企宣传的智能驾驶能力,一定是高于系统实际能力的,不能完全轻信。
李衡介绍称,目前L2级事故责任明确由驾驶员承担,系统仅为辅助工具。“大多数车企都能达到L3水平,但他们往往会定级 L2+级,即高阶辅助驾驶能力,方便在定责时明确责任划分。”
针对夸大宣传的问题,早在2021年,工信部就曾发布《关于加强智能网联汽车生产企业及产品准入管理的意见》。其中提及,“企业生产具有驾驶辅助和自动驾驶功能的汽车产品的,应当明确告知车辆功能及性能限制、驾驶员职责、人机交互设备指示信息、功能激活及退出方法和条件等信息。”
今年2月,工信部发布《关于进一步加强智能网联汽车产品准入、召回及软件在线升级管理的通知》。其中提及,“规范营销宣传行为。……企业在组合驾驶辅助系统或功能命名及营销宣传中,不得使用暗示消费者该系统可以作为自动驾驶系统使用,具备实际上并不具备的功能等用语,防止驾驶员滥用风险。”“严格履行告知义务。……避免驾驶员将组合驾驶辅助功能作为自动驾驶功能使用。”

工信部发布的《智能网联汽车产品准入、召回及软件在线升级管理与技术指南》。
基于此,今年3月,特斯拉中国官网对其辅助驾驶系统的命名进行了调整。原“Autopilot自动辅助驾驶套件”已改名为“辅助驾驶套件”,而其中的“FSD 智能辅助驾驶”也更名为“智能辅助驾驶”。官方给出的改名原因是:“为更好服务中国市场,贯彻落实国家近期相关管理规定”。
除宣传外,康林也提到,针对消费者的有关智能驾驶的安全培训也十分重要。即便车企有夸大宣传之嫌,但车企同时也会给购车的消费者推送安全培训的相关视频。但据他了解,很多车主会直接跳过学习。“车主不学习,车企也没有办法。”
复盘了撞石柱事故后,刘艳表示自己也有一定的责任。“如果是老司机的话,当时那种情况自己就会接管,但因为我经验不足所以也被吓到了。”但在她看来,主要责任还是在于系统,明明可以提醒她接管,系统却没有这么做。“虽然系统持续迭代升级,但像智能驾驶这种关系到人身安全的技术,如果不成熟还是别拿来宣传。”
小米SU7燃爆事件仍在网上持续发酵。有人后怕地表示,再也不信智能驾驶了。对此李衡也不认同。“系统能监测到的范围一定比人的注意力更广,但车主不能完全依赖系统,而应该与之建立相辅相成的关系,善用系统,那么它就是一个非常好的工具。”
(应采访对象要求,文中人物均为化名)
原标题:《“我曾信任系统,直到它操控着车撞向石墩”》
栏目主编:王潇 文字编辑:王潇
来源:作者:解放日报 朱雅文 张凌云 孙怡洋 周甜甜