作者ykjiang (York)
看板EV
標題Fw: [電車] 沒有雷達的特斯拉正式出海,為何馬斯克、
時間Fri Apr 8 00:17:48 2022
※ [本文轉錄自 car 看板 #1YJmur63 ]
作者: ykjiang (York) 看板: car
標題: [電車] 沒有雷達的特斯拉正式出海,為何馬斯克、
時間: Fri Apr 8 00:15:46 2022
標題連結:
沒有雷達的特斯拉正式出海,為何馬斯克、Toyota發展自動駕駛都押注鏡頭技術?
https://www.bnext.com.tw/article/68447/tesla-toyota-self-driving-camera
內文:
特斯拉宣佈捨棄雷達近一年後,沒有搭載雷達的Model 3、Model Y如今也正式出海,銷往
歐洲、中東等市場。與此同時,Toyota也透露有意走特斯拉路線,依賴鏡頭發展自駕技術
。為何分別是汽車、電動車龍頭的這兩家企業,都選擇鏡頭作為自動駕駛未來方向?
逆業界趨勢而行,特斯拉為何捨棄雷達、光達
感測器是自駕車的靈魂之窗,被認為是保障乘客安全的重要基礎,一直以來絕大多數投入
自動駕駛的車廠,都是結合使用多種感測器,提供系統更全面的車輛周邊資訊。
然而特斯拉卻反其道而行,除了馬斯克自始至終反對光達,曾說「所有依賴光達的人都註
定失敗」外,2021年5月更進一步宣佈捨棄雷達,自駕技術的開發重心將全部放在鏡頭上
。
作為比較,Nvidia最新發表的自駕車平台,搭載14枚鏡頭、9個雷達、3個光達及20個超音
波感測器,建立多元、大量的感測器系統可說是業界方向。特斯拉與整個產業截然相反的
作法,當時也引發外界抨擊是罔顧駕駛生命,會影響自駕技術的安全性。
事實上,捨棄雷達後特斯拉也對新車做了一些調整,輔助駕駛技術Autosteer限速75公里
、更長的跟隨距離,並且夜間會自動開啟遠光燈,同時還暫停了部份功能。
但為何特斯拉仍要一意孤行,將所有籌碼押注在鏡頭上?
發揮汽車數量優勢,Toyota從鏡頭技術切入自駕技術
要理解特斯拉的決策,需要先了解光達、雷達等感測器的優劣所在。光達與雷達相較鏡頭
最大的優勢在於,他們能夠更為精準地測量距離,而雷達更能夠風雨無阻,不受外在惡劣
天候的干擾。
光達能夠利用光或雷射測量距離,然而價格高昂,在車輛上安裝光達系統的成本高達1萬
美元,大大影響自駕技術的門檻,且在惡劣天候下無用武之地,使它一直不受到馬斯克認
可。
無獨有偶,根據《路透社》報導,Toyota自駕子公司Woven Planet也決定要走與特斯拉類
似的路線,重點聚焦在運用鏡頭實現自駕技術。
(略)
心得:
純視覺陣營又多一家了,其他車廠會紛紛棄暗投明嗎?如果Tesla 真搞起來的話,直接跟
特斯拉買方案應該是最省錢的做法
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 119.14.196.28 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/car/M.1649348149.A.183.html
※ 發信站: 批踢踢實業坊(ptt.cc)
※ 轉錄者: ykjiang (119.14.196.28 臺灣), 04/08/2022 00:17:48
1F:推 PaulPierce34: 哪個陣營是暗是明不好說,技術不一樣 04/08 16:04
2F:→ PaulPierce34: AI訓練也和光達量測距離不同,不同技術無法取代 04/08 16:08
3F:→ PaulPierce34: 光達技術也分很多種,不是每種都會受惡劣天候影響 04/08 16:09
4F:→ PaulPierce34: 這篇記者根本外行,只是為捧而捧 04/08 16:10
5F:推 chencjj: VLDR 一直低接 就不信他會下市 04/08 16:19
6F:推 LimYoHwan: 用光達就是低能 這麼簡單的道理都不懂 04/09 12:41
7F:推 hanchueh: 光達不是低能 只是很貴 就豪車選配 04/09 18:35
8F:→ hanchueh: 無法變成便宜大眾化標配的配備 04/09 18:35
9F:→ PaulPierce34: 便宜光達已經很多家在搞 04/10 15:35
10F:推 hanchueh: 是很多家在搞 可是怎麼都沒放在平價車上 04/10 23:42
11F:推 chencjj: 只是現階段太貴 之後壓低價格的話呢? 04/12 00:45
12F:→ chencjj: 捨棄是好聽 其實是閹割 04/12 00:47
13F:推 hanchueh: 我只知道2019/2020就很多新聞說光達 04/12 13:36
14F:→ hanchueh: 價格即將跌到100鎂內 會改變整個自駕市場 04/12 13:37
15F:→ hanchueh: 然後現在已經2022Q2了 連個影子都沒有 04/12 13:37
16F:推 PaulPierce34: 曲博有講圖像AI與光達的差別,還有容錯設計的觀念 04/15 03:03
17F:→ PaulPierce34: 如果目標是Level 5自駕,技術上就需要搭配光達 04/15 03:05
18F:→ PaulPierce34: 純視覺很難做到Level 5,以後還有萬物互聯網的應用 04/15 03:07
19F:→ PaulPierce34: 來加強自駕 04/15 03:08
20F:推 hanchueh: 他只是解釋東西比較厲害而已 對於預測 04/15 09:58
21F:→ hanchueh: 未來科技基本上也是用猜的 04/15 09:58
22F:推 PaulPierce34: 覺得我們講不同東西,配合光達是指要達到Level 5 04/15 21:05
23F:→ PaulPierce34: 你說現在主流是純視覺,但這方案只能做到Level 2 04/15 21:06
24F:推 milichang: 光達做到精緻建模地區的LV5,意思就是只能在少數地方 04/17 18:33
25F:→ milichang: 使用。視覺就是大部分地區LV5,目前研發中,不是做不 04/17 18:33
26F:→ milichang: 到LV5。 04/17 18:33
27F:推 hanchueh: Level 5根本就還沒有人達成 為何會知道 04/18 03:50
28F:→ hanchueh: 要光達才能達成?那就是瞎猜啊 04/18 03:50
29F:→ hanchueh: 其實要做的Level 3很容易 特斯拉現在就 04/18 03:51
30F:→ hanchueh: 辦得到 但是會非常雞肋 04/18 03:51
31F:→ hanchueh: 特斯拉也不想做這麼雞肋的東西去限制 04/18 03:51
32F:推 PaulPierce34: 精緻建模?你要說高精度地圖嗎?這沒有綁定光達才能 04/21 23:39
33F:→ PaulPierce34: 使用,視覺也可以用高精度地圖 04/21 23:40
34F:→ PaulPierce34: 另外在缺乏高精度地圖的郊區,光達一樣有更準的測距 04/21 23:41
35F:→ PaulPierce34: 先不要講LV5,只看LV4也是配光達 04/21 23:43
36F:→ PaulPierce34: AI視覺用的就是卷積算法,這種算法靠圖像與顏色計算 04/21 23:46
37F:→ PaulPierce34: 所以Tesla才會有撞上翻倒白色貨車的事故 04/21 23:46
38F:→ PaulPierce34: 卷積算法會遇到圖像或顏色不易分辨的時候 04/21 23:48
39F:→ PaulPierce34: 這時候就需要光達來輔助判定 04/21 23:48
40F:→ PaulPierce34: 純視覺要提高能力,除了累積的計算結果,也要持續提 04/21 23:52
41F:→ PaulPierce34: 高攝影模組與AI晶片,搞不好最終成本會超過光達 04/21 23:53
42F:→ PaulPierce34: 如果你去了解AI卷積算法在自動駕駛的應用,就知道為 04/21 23:56
43F:→ PaulPierce34: 何要達到LV5,搭配光達才是比較可行與低成本的方案 04/21 23:57
44F:→ PaulPierce34: 就算假設純視覺最終可達到LV5,但成本要增加多少? 04/21 23:59
45F:→ PaulPierce34: 邊際效應遞減,純視覺也許增加數倍成本才達到LV4 04/22 00:02
46F:→ PaulPierce34: 不如用低成本視覺與低成本光達搭配,就能達到LV5 04/22 00:03
47F:→ PaulPierce34: 每種技術有不同特長與缺點,互相取長補短才能降低成 04/22 00:05
48F:→ PaulPierce34: 本與提高效率,會比一種技術用到頂尖更容易且便宜 04/22 00:06
49F:→ PaulPierce34: 說別人瞎猜,我說的這些你了解過嗎?誰才是瞎猜呢 04/22 00:08
50F:推 hanchueh: 全自駕真正關鍵的是AI不是什麼視覺光達 04/22 18:21
51F:→ hanchueh: 就像開車真正關鍵的是大腦不是視力 04/22 18:21
52F:→ hanchueh: 難道裝了光達就不用AI?不可能嘛 04/22 18:22
53F:→ hanchueh: 台灣根本沒有上所謂的全自駕測試版 04/22 18:23
54F:→ hanchueh: 只有Autopilot跟Navigate on Autopilot 04/22 18:24
55F:→ hanchueh: 所以並沒有用到最先進的特斯拉AI能力 04/22 18:24
56F:推 PaulPierce34: 是呀,所以這些技術要分開來理性分析優缺點 04/23 01:24
57F:→ PaulPierce34: 最後都需要AI運算,但光達與視覺功能就不同 04/23 01:24
58F:→ PaulPierce34: 就算是人眼,也怕對向遠燈、昏暗、不良天氣 04/23 01:26
59F:→ PaulPierce34: 從人眼就容易理解視覺方案有困難的地方 04/23 01:27
60F:→ PaulPierce34: 機器就可以用光達來補強這些視覺方案的短處 04/23 01:27
61F:推 hanchueh: 呃不良天氣光達也無法運作 一滴水就能 04/23 01:30
62F:→ hanchueh: 廢了光達 04/23 01:30
63F:→ PaulPierce34: 然後卷積也只負責影像後第一層運算,光達不需要卷積 04/23 01:30
64F:→ PaulPierce34: 一滴水廢了光達,這個我沒聽過,有資料給我看看嗎 04/23 01:31
65F:推 hanchueh: 屁 隨便找都一堆人在研究光達用卷積 04/23 01:35
68F:→ hanchueh: LiDAR cannot see in fog, dust, rain or snow 04/23 01:38
69F:→ hanchueh: 霧 沙 雨 雪 都能廢LiDAR 04/23 01:38
70F:→ hanchueh: 如果光達不需要卷積 這些人在研究什麼 04/23 01:39
71F:推 PaulPierce34: 這跟你說的一滴水不同吧,不同波長的影響也有差 04/23 01:53
72F:→ PaulPierce34: 針對這些天氣,也可再搭配雷達,每種技術有不同特長 04/23 01:54
73F:→ PaulPierce34: 光達受影響,視覺也一樣呀 04/23 01:55
74F:→ PaulPierce34: 每種技術都不是萬能,何必要把視覺以外技術都當垃圾 04/23 01:56
75F:→ PaulPierce34: 我也有查到光達用卷積取代點雲的研究,那我收回光達 04/23 02:04
76F:→ PaulPierce34: 不用卷積的說法,這些新的研究都可能商業化 04/23 02:04
77F:→ PaulPierce34: 但你踩光達的點也有點太誇大了,而且視覺受的影響沒 04/23 02:05
78F:→ PaulPierce34: 有比較好吧 04/23 02:06
79F:→ PaulPierce34: 補充一下,我說的雷達是FMCW毫米波雷達 04/23 02:12
80F:→ PaulPierce34: 看到一些研究說可以適應雨霧 04/23 02:13
81F:→ PaulPierce34: FMCW也有公司在研發用於自動駕駛 04/23 02:20
82F:→ PaulPierce34: 用你的說法,如果這些是垃圾,這些人在研究什麼 04/23 02:20
83F:推 chandler0227: 關鍵是滿足MTBF,感測演算決策缺一不可,只有AI? 04/23 08:10
84F:→ chandler0227: 發展FMCW LIDAR跟4D Imaging Radar的難道都笨蛋? 04/23 08:11
85F:推 hanchueh: 照你們光達擁護者說的 感測發展很快啊 04/23 11:01
86F:→ hanchueh: 一下子就能一百鎂 一下子就能幾公分就能 04/23 11:01
87F:→ hanchueh: 所以瓶頸是在決策如果做到比人開安全 04/23 11:01
88F:→ hanchueh: 如何做到比人腦的決策還安全 04/23 11:02
89F:→ PaulPierce34: 科學的部分跟你講了,你要怎麼想就你自己的事 04/24 02:01
90F:→ PaulPierce34: 即使都用卷積,光達提供的資料還是測距數據 04/24 02:54
91F:→ PaulPierce34: 視覺給的仍然是圖像數據,這點差異還是一樣 04/24 02:55
92F:→ PaulPierce34: 這跟擁不擁護沒什麼關係,科學上的差異就是這樣 04/24 02:57
93F:→ PaulPierce34: 你自己不願意去了解或接受科學,扯什麼別人擁護 04/24 02:58
94F:推 hanchueh: 特斯拉會取消使用雷達 就是因為圖像辨識 04/24 11:40
95F:→ hanchueh: 已經比雷達還準確了 留著雷達反而會出現 04/24 11:40
96F:→ hanchueh: 兩者訊息矛盾的問題 04/24 11:40
97F:→ hanchueh: 結果你說光達還要用雷達輔助?那矛盾 04/24 11:41
98F:→ hanchueh: 到時候怎麼解決?還不是要靠AI 04/24 11:41
99F:→ hanchueh: 所以自駕的瓶頸依然是AI 04/24 11:41
100F:推 PaulPierce34: FMCW可以單獨使用,圖像跟測距功能不同,也沒有圖像 05/01 06:13
101F:→ PaulPierce34: 比雷達準確的這種說法 05/01 06:13
102F:→ PaulPierce34: 2個訊息是看運算端怎麼處理,矛盾不會是問題 05/01 06:15
103F:→ PaulPierce34: 如果會矛盾是軟體Bug,也不是光達的錯 05/01 06:16
104F:→ PaulPierce34: 在測距上是視覺追求接近光達,不會是視覺比較準 05/01 06:20
105F:→ PaulPierce34: 光達只是比較貴,Tesla才不用 05/01 06:20
106F:→ PaulPierce34: 反正沒規定要做到LV5才能賣,還是看消費者選擇 05/01 06:21
107F:推 hanchueh: 還是那句話 2019光達廠就說能降到100鎂 05/06 13:53
108F:→ hanchueh: 現在2022了 成本才100鎂的零件怎麼不是 05/06 13:53
109F:→ hanchueh: 每台車都有呢? 05/06 13:54
110F:→ PaulPierce34: Tesla的全自動駕駛還不是持續跳票 05/13 09:33
111F:推 hanchueh: 測試版已經上了啊 北美超過10萬用戶 05/15 13:57