近日,特斯拉北美官方社交賬號轉發了一則引發廣泛爭議的推廣內容——一段關于全新Cybertruck車主的采訪視頻。視頻中,車主里基透露自己因視力持續衰退,在眼科醫生建議下購買了搭載FSD(完全自動駕駛)功能的特斯拉車型。這一案例將特斯拉自動駕駛技術的宣傳與實際責任界定之間的矛盾推向風口浪尖。
據里基描述,其眼科醫生不僅是特斯拉車主,還主動推薦他選購配備FSD的車輛,并安排試駕活動。在試駕過程中,車輛在三條不同路線上自動行駛了約一個半小時,期間里基未觸碰方向盤。這種體驗讓他最終決定購買Cybertruck,核心目的就是使用FSD功能。然而,特斯拉官方對FSD的定位卻與這一使用場景存在根本沖突。
特斯拉官方文檔明確指出,FSD(監督版)屬于SAE國際標準定義的L2級駕駛輔助系統。根據該分級標準,駕駛員必須全程保持專注并隨時準備接管車輛,無論系統是否激活,駕駛責任始終由人類承擔。特斯拉反復強調,該系統無法實現真正的無人駕駛,僅能提供輔助功能。這種技術定位與里基等視力受損車主的實際需求形成鮮明對立。
安全研究數據進一步加劇了這種矛盾。當L2級系統要求駕駛員重新接管車輛時,人類需要5至8秒才能恢復有效控制,而突發危險往往在更短時間內發生。對于視力衰退的駕駛者而言,依賴輔助系統駕駛不僅無法保障安全,反而可能因系統營造的"自主駕駛"假象而放松警惕,將自身置于更高風險之中。
美國國家公路交通安全管理局(NHTSA)已將FSD調查范圍擴大至320萬輛特斯拉車輛,這一動作通常被視為車輛召回的前置程序。該機構同時針對80余起涉及FSD的交通違規事件展開獨立調查,發現特斯拉存在未完整提交事故數據的問題。更引人關注的是,已有Cybertruck車主發起訴訟,指控FSD系統直接導致車禍發生。
特斯拉首席執行官此前公開表示,開啟FSD后駕駛員可以"邊開車邊發短信",這種表述與其堅持的L2級技術定位形成強烈反差。法律專家指出,這種宣傳策略可能誤導消費者對系統能力的認知,而將駕駛責任完全推給用戶的做法,在技術實際表現與宣傳承諾存在差距時,將引發嚴重的法律和倫理爭議。隨著監管調查深入,特斯拉自動駕駛技術的責任界定問題將持續成為行業焦點。












