此为历史版本和 IPFS 入口查阅区,回到作品页
徒風
IPFS 指纹 这是什么

作品指纹

關於 CNBC 實測特斯拉自動駕駛,我想說的是…

徒風
·
·
近日蠻受關注的 CNBC 實測特斯拉自動駕駛影片,我來說說個人看法。

針對我特別想說的部份,我會標上影片的時間軸連結,方便各位直接點開連結就能從那個時間點開始觀看影片。時間軸連結之後,會附上我的個人意見。

繫好安全帶,讓我們開始吧!


👉6:19 監視駕駛人是否專心的功能不足

特斯拉車內有一個攝影機正對著駕駛人,用來監視駕駛人是否有專心開車。影片中訪問的那位女士說:

「根據我們的測試,我們無法讓那個攝影機發揮足夠的效用來監視駕駛人是否專心,因為我們可以用東西把攝影機鏡頭蓋住,那就等於沒裝攝影機。」

我想對那位女士說,其實車子裡面的剎車踏板也是有裝跟沒裝差不多的,因為你可以拿一塊大石頭把油門壓得死死的。不信的話,你可以試試看。

👉7:32 過度小心的急剎車

影片中的駕駛顯然很不爽,認為左前方的行人雖然走在人行道上,可是明明沒有要往前,特斯拉竟然還給我急剎車。

我想,行人對於某些特別不懂禮讓的駕駛,早就習慣讓車子先開過去了。沒有人會拿自己的生命開玩笑。影片中的駕駛顯然覺得自己有路權可以先過,而且行人不可能貿然繼續往前走。但,撇開禮貌不說,你不覺得這有點事後諸葛嗎?如果是盲人呢?如果那個行人剛好在那裡拌了一跤往前栽跟斗呢?

交通意外之所以是意外,正因為它在常人的意想之外。FSD 在這裡過分小心了嗎?我大膽猜想,研發團隊應該是認為,作為一個自動駕駛系統,寧願選擇過分小心,也不要讓車子有一丁點機會去撞到行人。

話說,旁邊的女記者似乎沒繫安全帶耶。

👉8:29 FSD 螢幕全黑,車子卻仍繼續自動駕駛

這應該說,是原本的設計就是這樣的吧。你可以想像,如果有人發現 FSD 的顯示螢幕因為某種原因突然故障而黑屏,車子就突然無法繼續運行自動駕駛系統,那不危險嗎?到時候肯定又會冒出更猛烈的炮火:「哇哩勒,光只是螢幕故障,FSD 就突然停止功能,我當時正在往後座給小朋友餵奶耶,特斯拉真可惡...」

╮(╯▽╰)╭

👉8:38 因為剎車而被後面的巴士按喇叭

拜託啊,大哥,特斯拉發現左方有行人要通過,所以禮讓行人先通過。你因為被巴士按了一聲喇叭就以訕笑的口吻跟旁邊的記者說:「你看看。」

是啊,你何不看看特斯拉自動駕駛有多小心?能避免多少跟行人搶路權、甚至引發意外的情形?

👉9:13 特斯拉突然急煞

這恐怕是因為特斯拉的攝影機捕捉到右前方一對行人,其中一位走下了人行道,雙腳走在行車路線範圍內,所以立刻剎車減速。

老實說,我認為這當然是人腦比電腦聰明的地方。然而,萬一有一天我們碰到這種情形,那個雙腳走下人行道的行人,接著腳突然一顛一拐跌倒了,還倒向路中央呢?到時候,人們還會抱怨特斯拉過分小心嗎?我的答案是:肯定還是有人會抱怨,因為只要沒出事,許多人思考的方向便不是安全優先,而是去抱怨自動駕駛系統造成自己行車的不舒適感。

一定也有人會質疑:這樣急煞車難道不會造成後方追撞上來?這不也是很危險嗎?

首先我想說的是,我非常,非常堵 X 台灣很多汽車駕駛人完全漠視行車安全距離,包括公共汽車(公車上的安全距離警示嗶嗶聲不停響,司機就是不理)。不過,以下所討論的,就暫且假設所有車輛都有保持安全車距,而且行車速度也在道路速限以內。

我是這樣想的:當你在開車時,前方視線突然出現一個人和一隻狗,你要選擇撞人還是撞狗?

聰明的你當然會選擇撞狗,喔不,是立刻剎車。那麼,這樣不就容易造成後方追撞嗎?

那我就問啦,是兩車追撞的後果比較嚴重,還是撞上行人的後果比較嚴重?我相信這也是設計自動駕駛軟體時一定會碰到的困難抉擇,其中牽涉道德與正義的思辨與決策。思考一下,軟體程式是否有可能判斷在某些特定情況下,撞到人可能只是輕傷,而後方追撞會造成重大車損,因而選擇撞人?就我有限的智慧來判斷,不可能這樣設計。

當軟體程式碰到可能撞到人的情況,必然要選擇避開這個結果。當然啦,特斯拉的 FSD 研發團隊人才濟濟,也許有更高明、更精細的決策路徑,例如根據當時的車速以及跟前後人車的距離來推測撞擊的嚴重程度(這當然是我的瞎猜,我覺得這不太可能有標準答案)。

👉9:20 十字路口綠燈卻停在路中央不走

這我就看不出原因了。的確有可能是特斯拉 FSD 誤判。這位測試駕駛人隨後說了一句我認為相當中肯的話:

「當我讓車子自動駕駛的時候,我比較不擔心會撞到行人,但是我會擔心成為『路怒事件』的受害者。」

這當然是因為,如果前方車輛突然沒來由地急剎車,我們也會覺得莫名其妙。有的人甚至會因此判定前車在挑釁我,故而加速超車之後,把對方車子攔下來。接下來可能是拳頭與球棒齊飛的場面,請自行發揮想像力。

👉10:02 路口圓環,應繞過圓環直行,卻往右駛出圓環

我不確定為什麼會這樣。然而,隨後他們又碰到了另一個圓環,此時特斯拉自動駕駛卻能正確挑選駕駛人想要走的路線。可能是特斯拉 FSD 的 AI 學習功能所產生的立刻改進?我認為不大可能這麼快就能把上次的錯誤回饋至系統的資料庫,然後立刻進行調整。當然這只是我有限智慧的想法。

👉10:44 特斯拉似乎無法辨認路樁

隨後剪入了其他 youtuber 的測試影片,而那位駕駛的特斯拉直接撞上路樁。這的確有點慘,而那位駕駛當時的口吻是這樣的:「我們真的撞上了耶,Wow!」

聽起來似乎是解除了某種成就?😄

👉17:42 應該停車再開的路口,特斯拉卻幾乎要闖過去

我沒有評論,可能是特斯拉因某些環境條件而在研判時有所延遲。不禁又想到,像這種停車再開的標誌,在台灣有多少人會搭理?

👉18:29 「全自動駕駛」命名之罪

我贊成,沒有意見。其實我標註這段的原因,只是因為我覺得那位女士在說「we really have to be careful in how we're messaging things」的語調蠻好聽。

結語

看完影片,我覺得 CNBC 找來的三位測試駕駛當中,那位叫 Taylor Ogan 的人疑似帶著一點「給大家看好戲」的心態來測試,又或者是帶著偏見來進行測試。

另外,坐在旁邊的記者沒繫安全帶,是因為覺得坐在特斯拉裡面感覺特別安全無虞嗎?🙂

不可諱言,特斯拉把這套輔助駕駛軟體系統命名為 Full Self Driving(全自動駕駛),也是它持續承受質疑砲火的主要原因之一。許多人才不管你目前的 FSD 系統只到 Level 2 還是 Level 3,他們會說:「既然名稱是全自動駕駛,那就應該全程不用我接手方向盤啊。」然後完全漠視那是 Level 4 與 Level 5 的境界。

我當然有我的偏見。特別是我最近在特斯拉股價 900 元附近重新開倉買回(先前是 1000 附近清倉),而且持續往下加碼的情況下,我對特斯拉的相關消息更加關注,同時也認為特斯拉自動駕駛雖然還不完美,但是方向正確,未來願景也是我所期待的——塑造更安全、低汙染的交通環境。因此,我對特斯拉 FSD 目前的一些缺失,會以相對寬容的態度來看待。

以上就是我個人的一些偏見,供各位參酌,也歡迎留言表達你的看法。

CC BY-NC-ND 2.0 授权