FSD又翻车:23mph直冲道口闸门,偏偏撞上NHTSA交数据的最后一天

如果你以为“闯红灯”“走错车道”已经够离谱了,这次更直接:在铁路道口,闸门刚落下,车却继续往前走。一段在社交平台爆火的视频显示,一辆特斯拉Model 3在“完全自动驾驶(FSD)”状态下,驶近洛杉矶地区的铁路过境道口时,没有完全识别到道口障碍,直接穿过了栏杆区域。

视频来自Threads用户 Laushi Liu。他在 3月8日(周日) 发帖并上传行车记录仪画面:车辆在加州西科维纳(West Covina)附近,以约 23英里/小时 的速度开启FSD行驶,前方道口闸门刚刚落下——然后车仍继续前进。更让人背脊发凉的是:闸门高度大致与特斯拉前置摄像头接近,按理说这不是“看不见的小障碍”,但画面里几乎看不到系统尝试减速或规避的迹象。司机没有及时接管,直到碰撞瞬间才踩下刹车。帖子标题也很直接:“特斯拉FSD今天差点杀了我”。

评论区很快吵成两派:一派强调FSD是需要持续监督的L2级驾驶辅助,驾驶员本就该随时接管;另一派则质疑:当你把产品命名为“完全自动驾驶”,并以此销售高价功能时,用户自然会对其能力产生更高预期——尤其是在这种“生死攸关”的道口场景里。媒体表示已联系车主,确认当时运行的FSD版本,待回复后更新。

铁路道口不是边缘场景,而是FSD的“已知盲点”

这段视频之所以引爆,不只是因为它惊险,而是因为它踩中了一个“老问题”:铁路道口一直被认为是FSD的高风险盲区。NBC News此前做过较大范围的调查:他们在社交媒体上找到了40多起与铁路道口相关的FSD事故或险情报道,并采访了六名遇到问题的特斯拉司机,其中四人提供了视频证据。

更严重的案例也出现过:报道提到,一辆开启FSD的特斯拉Model 3在宾夕法尼亚州东部驶入轨道,最终被火车撞击。司机和乘客在撞击前下车逃离,但车辆被火车撞毁。类似模式频繁出现,严重到两名参议员 Ed Markey 与 Richard Blumenthal 曾致信NHTSA,敦促对FSD在铁路道口的处理进行正式调查。

你会发现,这类场景和“复杂城市路口”还不太一样:铁路道口通常有非常明确的视觉信号——闪烁灯光、落下闸门、路面标线。如果系统在这里仍出现识别失败,就会让人怀疑它是否真的配得上“完全自动驾驶”这个名字。

更讽刺的是时间点——NHTSA要数据的截止日,就爆出这条视频

这条视频的发布时间被认为“近乎诗意地讽刺”:3月9日 正是特斯拉向NHTSA提交关键碰撞与违规数据的截止日期——这些数据用于NHTSA对FSD交通违规的全面调查,调查范围明确包括铁路道口故障,也包括闯红灯、驶入对向车道等问题。

NHTSA在将58起事件与FSD关联后,于2025年10月启动调查,其中包含14起车祸23起受伤。到2025年12月,记录在案的违规增加到80起,来源包括62份司机投诉、14份特斯拉报告与4个媒体账户。调查覆盖约288万辆具备FSD功能的特斯拉。

特斯拉方面则一直在为“交数据”争取时间:截止日期从最初的1月19日延到2月23日,再延到3月9日。理由是数据量巨大:特斯拉称有8,313条记录需要人工审查,而每天只能处理约300条。NHTSA要求提供每起事件从违规前30秒开始的详细时间线,包括运行的FSD版本、是否向驾驶员发出警告、以及是否发生碰撞/受伤/死亡等。

与此同时,类似“病毒级失败”也在持续堆叠:2月有FSD试图把车开进湖里的视频走红;更早还有中国车主直播时正面撞击的案例被传播。原文还提到,特斯拉在奥斯汀运营有限的无监督机器人出租车服务,而其软件同样处于联邦调查视野内——这让公众对“系统是否可靠”更加敏感。

外媒点评很尖锐——“这不该被叫完全自动驾驶”

根据外媒Electrek的观点,话说得很直:铁路道口不是边缘情况,而是生死攸关的标准场景。如果FSD连这种“字面意义上的障碍物”都无法稳定识别,它就不该被称为“完全自动驾驶”,不论是否要求监督。

是的,驾驶员应该随时介入——这就是L2系统的前提。但这条论点同样是双向的:特斯拉为FSD收取高达15,000美元的费用,并用一个明显暗示“车能自己开”的名称来营销。当系统无法可靠处理铁路道口这种强规则场景时,公众有理由质疑:营销是否与现实能力匹配。原文还提到,加州车管所(DMV)此前已裁定特斯拉相关营销不符合现实。

最终,这条视频最值得关注的,不是“又一个翻车”,而是它迫使大家回到一个核心问题:当监管要数据、公众要解释、厂商要推进自动化,系统到底有没有把最基本的安全场景吃透? 接下来就看特斯拉是否按期提交数据,以及这些数据是否能揭示铁路道口故障的真实频率与原因。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注