Robotaxi 首起碰撞事故,马斯克真的走对路了吗?
日期:2025-07-10 22:44:10 / 人气:26
特斯拉 Robotaxi 在美国得克萨斯州奥斯汀的试运营首月,就以一起公开碰撞事故撕开了 “纯视觉” 自动驾驶方案的裂缝。科技博主 “DirtyTesla” 拍摄的视频中,那辆结束行程的 Model Y 在无人操控下突然加速偏转,擦碰静止车辆的瞬间,不仅让监管机构启动调查,更让业界重新审视马斯克 “只靠摄像头就能实现 L4 自动驾驶” 的技术执念。
事故背后:“纯视觉” 的现实困境

这起剐蹭事故看似轻微,却暴露了纯视觉方案的致命短板 —— 对复杂场景的判断失能。从视频来看,事故发生在光线充足的停车场,既无恶劣天气干扰,也无突发障碍物,属于自动驾驶系统理应完美应对的 “简单场景”。但特斯拉 Robotaxi 却在结束行程的 “怠速状态” 下出现逻辑紊乱,这与此前试乘用户反馈的 “幽灵刹车”“逆行”“超速” 等问题形成呼应,指向一个更严峻的事实:纯视觉系统的算法 “幻觉” 正在现实道路中频繁显形。
卡内基梅隆大学教授拉杰・拉杰库马尔的警告在此刻显得尤为尖锐:“AI 的‘幻觉’是其运作的一部分,单纯依靠摄像头,错误不可避免。” 激光雷达能通过激光束构建精确的 3D 环境地图,毫米波雷达可穿透雨雾捕捉障碍物,而特斯拉依赖的 8 个 500 万像素摄像头,在强光、弱光或复杂光影下常出现识别失效。正如长期批评者丹・奥多德的测试所示,FSD 在直面阳光时会直接 “宕机”,这种硬件层面的先天缺陷,绝非 “大数据训练” 能完全弥补。
路线之争:模仿人类还是超越人类?
马斯克的 “第一性原理” 在此遭遇挑战。他认为 “人类靠眼睛驾驶,自动驾驶也该如此”,但忽略了一个核心差异:人类驾驶员有大脑的常识判断和应急反应,而摄像头 + 算法的组合本质是 “概率性决策”。当停车场的阴影导致摄像头误判车身距离时,系统无法像人类一样 “凭经验修正”,只能依赖预设算法硬刚 —— 这正是事故发生的根源。
反观谷歌 Waymo 和亚马逊 Zoox 的 “多传感器融合” 路线,激光雷达 + 摄像头 + 雷达的组合虽增加成本,却构建了多重安全冗余。Waymo 联合 CEO Tekedra Mawakana 的表态一针见血:“我们要取代人类,就需要优于人类的视觉系统,而非单纯模仿。” 理想汽车保留激光雷达的选择,同样基于安全冗余的考量。两种路线的差距在现实中逐渐显现:有行业高管直言 “特斯拉当前水平相当于 Waymo 3 年前的状态”。
监管与信任:技术狂奔下的隐忧
此次事故的象征意义远超损失本身。特斯拉既未披露 Robotaxi 的接管频率,也未公开故障日志,这种 “黑箱操作” 与试运营的开放性形成矛盾。监管机构要求提交 “感知逻辑、决策链、异常响应机制” 的背后,是对算法透明度的拷问 —— 当自动驾驶系统出现 “幻觉” 时,谁来为决策失误负责?
更关键的是公众信任的崩塌。试乘用户记录的 “逆行”“超速”“错误下客” 等问题,正在消解市场对纯视觉方案的信心。自动驾驶的终极目标是安全,而安全不能依赖 “概率优化”。马斯克或许沉迷于 “用数据堆出 L4” 的技术浪漫,但 Robotaxi 的每一次异常,都在提醒行业:通往完全自动驾驶的路上,没有捷径可走。
事故虽未造成伤亡,却为狂奔的技术踩下了一脚刹车。马斯克的纯视觉路线能否走通,或许不在于数据量的多少,而在于是否敢于承认:有些场景,眼睛真的不够用。
作者:欧陆娱乐
新闻资讯 News
- 传奇数学家生前最牵挂的谜题终获...07-31
- 神坛上的陈佩斯:九十年代的因,...07-31
- “不信邪” 的年轻人正在成为 “...07-31
- “一天 30 杯” 的营销神话:乌龙...07-31