自動駕駛三次撞飛假人,警告特斯拉使用者謹慎使用!

消費者對於特斯拉自動駕駛的態度,一直都是兩極分化特別嚴重,有人追崇,也有人表示質疑。前不久才被美國交通安全管理局調查,這邊還沒結果,另一邊,火又燒起來了。這一次是關於特斯拉FSD Beta,此項技術於2020年9月推出,目前只開放給美國車主付費使用,安全性一直都備受質疑,推出不同版本後都會有使用者反饋在使用中會出現不同的問題。此前就曾有使用者反饋在9。0版本中,車子在轉變後不能識別出路邊的樹木,甚至連單行道與公交車道都不能識別出來。

自動駕駛三次撞飛假人,警告特斯拉使用者謹慎使用!

8月9日,一個名為Dan O‘Dowd的網友在社交平臺釋出一則關於特斯拉FSD評測影片,影片中顯示,在評測過程中,特斯拉多次撞上了兒童假人模型,對此,他表示對評測結果感到非常不安。Dan O’Dowd還稱,這樣的結果群眾應該採取行動呼聲,雖然特斯拉CEO馬斯克對特斯拉的FSD表示非常自信,但其實這對所有美國人都會產生致命的威脅。

自動駕駛三次撞飛假人,警告特斯拉使用者謹慎使用!

此外,參加測試的人員也在測試報道中表示,在過去的一個月內對特斯拉進行了幾十次測試,雖然在撞到模型之前車速會放慢一些,但最後還是超過每小時25英里的速度撞擊並碾壓了人體模型。在操作過程中車是以每小時40英里的速度啟動,在指定車道內行駛100碼之後,就會撞上人體模型。

自動駕駛三次撞飛假人,警告特斯拉使用者謹慎使用!

難道說特斯拉真的要翻車了嗎?不過值得一提的是,Dan O‘Dowd並不是普通的網友,而是Green Hills Software的CEO,他曾在去年發起一項禁止汽車的安全系統中使用不安全軟體,其中就有包括對特斯拉FSD的測試,迄今為止,“黎明計劃”已經發布了數個批評特斯拉FSD的廣告,包括這次。而Dan O’Dowd也一直被網友們成為“特斯拉的批評者”、“特斯拉最大黑粉”,所以這項測試結果到底有沒有帶入個人感情色彩是個疑問。

自動駕駛三次撞飛假人,警告特斯拉使用者謹慎使用!

對於Dan O‘Dowd釋出的測試影片,特斯拉的“社交達人”馬斯克也做出了迴應,他稱大家都上了影片的當。還有網友指出,在評測過程中,似乎並沒有開啟特斯拉的FSD,另一部分人則表示,之所以特斯拉會徑直向假人撞上去,那是因為系統識別出了假人並不是真人,如果是真人,那麼結果可能就會不一樣,不過肯定也不能用真人來測試。

不論結果是怎樣,我們消費者要知道的是,到目前為止,市面上還沒有一臺車型可以實現自動駕駛,都需要駕駛員進行操控,在使用過程中駕駛員還是應該隨時注意駕駛狀況,而關於FSD系統,無論馬斯克說得多麼絕對安全,但只要犯一次錯,後果就可能不堪設想。

頂部