作者Scape (缺鈣缺很大)
看板car
標題[分享] 全自動駕駛兩套方案:視覺辨識與光達
時間Mon May 6 06:26:13 2019
這篇文章是根據MIT 科學家Lex Fridman 的自動駕駛講座的部分內容而寫成的,
主要來介紹一下目前全自動駕駛所用到的各種感應器其優點與缺點。
https://i.imgur.com/BMK347H.png
目前全自動駕駛的發展大致上有兩種方案,一是視覺辨識加上深度學習,第二種
則是光達(Lidar)加上高精度地圖。另外這兩種方案都還是會用上例如雷達、超
音波雷達等感應器。
‧視覺辨識加深度學習方案
‧優點:
‧擁有最高解析度的資訊
‧大規模搜集資料與深度學習的可行性高
‧道路原先就是設計給人類的視覺使用
‧便宜
‧缺點:
‧不精確(如果沒有大量數據的話)
‧(深度學習)不可解釋、不一致
‧光達加高精度地圖方案:
‧優點:
‧可解釋、一致
‧精確
‧缺點:
‧不會隨時間經過而改善
‧(光達、製作高精度地圖)貴
而這兩套方案所用的感應器,例如雷達(Radar)、光達(Lidar)、相機(Camera)、
超音波雷達(Ultrasonic)等特性也不同以下介紹這些感應器的主要特點:
https://i.imgur.com/1u0oLqF.png
‧雷達:便宜、在極端天氣下工作狀況良好,但解析度低,是最常被用來檢測
及追蹤物體的感應器。
https://i.imgur.com/sYqLYwX.png
‧光達:造價貴,對於檢測深度(與物體之間的距離)極度精確,解析度要比雷達
來的高,擁有360度的可視範圍。
https://i.imgur.com/SsFAyU4.png
‧相機:便宜,有著高解析度,可蒐集巨量數據做為深度學習之用,但對於深度
的估計很差,在極端天氣下的工作狀況也不好。
下面這四張圖則是代表了這些感應器在各種光線與天氣條件之下其感應距離與靈
敏度的變化:
https://i.imgur.com/e4sOogJ.png
https://i.imgur.com/ZLtYiC6.png
而若是以
Proximity detection (接近or距離檢測)
Range (範圍)
Resolution (解析度)
Works in dark (黑暗中工作狀況)
Works in bright (明亮時工作狀況)
Works in snow/rain/fog (在雪/雨/霧中的工作狀況)
Provide colour/contrast (提供色彩/對比資訊)
Detects speed (檢測速度)
Sensor size (感應器體積)
Sensor cost (感應器成本)
這幾項做為指標的話,那各種感應器的表現如下:
光達:
https://i.imgur.com/lpv5ZWT.png
超音波雷達:
https://i.imgur.com/O4OsAFV.png
雷達:
https://i.imgur.com/oqo3O5p.png
相機(被動視覺):
https://i.imgur.com/u4ovri8.png
而在使用視覺辨識加上深度學習的這一項方案中,感應器融合是不可少的,將
相機、雷達、超音波雷達這三種感應器加起來可以得到以下的結果:
https://i.imgur.com/S6WX5GZ.png
而這正是Tesla 目前所使用的方案,拿來與光達方案做比較的話,可以發現這兩
種方案有以下特點:
https://i.imgur.com/1QlIhU7.png
可以發現,"相機 + 超音波雷達 + 雷達" 這些傳感器融合後就能媲美光達,而
光達不能獲取色彩/對比數據,最終同樣要加上相機,然後解決視覺辨識問題。
也就是說一但解決了視覺辨識問題,那麼只要"相機 + 超音波雷達 + 雷達"就能
覆蓋所有感應器所需要解決的事情。這也是Elon Musk 會說全自動駕駛不需要光
達的原因;至於要如何解決視覺辨識問題?那就透過深度學習來解決,而深度學
習所需要的大量數據則透過目前已經安裝在幾十萬輛Tesla 上的感應器來蒐集。
講座影片:(此篇文章用到的內容從41:55 開始)
https://youtu.be/sRxaMDDMWQQ?t=2515
講座ppt 下載:
http://bit.ly/2H0Htiz
Dr. Lex Fridman 個人網站:
https://lexfridman.com/
--
https://i.imgur.com/60khZxi.jpg
https://i.imgur.com/3YhAuMC.gif
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.252.81
※ 文章網址: https://webptt.com/m.aspx?n=bbs/car/M.1557095194.A.CB5.html
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:27:53
1F:推 i9100: 新知推 05/06 06:38
2F:→ i9100: 光學雷達,簡稱光達.目前造價2萬美元,跟車價差不多了 05/06 06:39
3F:推 i9100: 簡單來講,相機辨識道路不容易辨識景深 05/06 06:43
其實透過深度學習加上相機(Tesla 前方有三個鏡頭類似人眼的視差可以製造距離感)
也能很好的判斷距離,這方面的研究很多
Tesla 也在前陣子的Tesla Autonomy Day 的展示中也有提到
光用相機得到的數據然後丟進神經網路做深度學習
所得到的距離資訊其實與用雷達檢測到的相差無幾:
(影片約2:20:44 ~ 2:21:25 這一段)
https://youtu.be/Ucp0TTmvqOE?t=8444
4F:→ i9100: 雷達辨識,沒有顏色,需結合地圖電腦判斷. 05/06 06:44
5F:推 shepherd: 謝謝分享 難怪Musk自信滿滿 05/06 06:44
6F:→ i9100: 光達既是雷達,有景深,有距離,也有顏色,但sensor 2萬美元 05/06 06:44
其實光達也不能判別顏色,這是它最大的罩門
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:57:24
7F:推 aaagang: 不會互相干擾嗎? 05/06 07:37
不會喔
雷達是發射波長較長的微波或電磁波然後接收從物體反射的微波或電磁波來測距
超音波雷達則是用人耳聽不到頻率較高的聲波
相機是被動接收可見光
光達則是用波長較短的電磁波(或是說發射雷射or光子)
不太會互相干擾,其頻率都不同
※ 編輯: Scape (1.34.252.81), 05/06/2019 07:46:42
8F:推 xru03: 推分享 05/06 07:42
9F:推 lucky945: 長知識 05/06 07:57
10F:→ m996360: 應該需要非常強的後處理器喔 05/06 08:28
所以Tesla 才自己設計專為自己訂製的AI 晶片,以獲取最好的效能與功耗
11F:推 Richie1105: 好文推 05/06 08:29
12F:推 gk1329: 光達最大缺點就是貴 光達廠再混可能會被淘汰 05/06 08:30
※ 編輯: Scape (1.34.252.81), 05/06/2019 08:40:35
13F:推 northwild: 長知識推 05/06 08:45
14F:推 ilove0618: 光達2萬鎂算便宜了,拿來做建築物點雲掃描的都要快200 05/06 08:48
15F:→ ilove0618: 萬台幣 05/06 08:48
16F:推 yahe0526: 推 05/06 08:50
17F:→ dslite: 現在ACC會撞靜止車就是雷達解析度太低的毛 05/06 08:55
18F:推 louis960126: 現在低價光達ouster 一顆降到3500鎂了 05/06 09:02
19F:推 LebraDcup6: 光達不會被淘汰,就像樓上說的有其特定的市場需求 05/06 09:15
20F:推 kerkerdog: 推,少見的車板好文 05/06 09:18
21F:推 notsmall: 光達太貴了 研究生買不起 05/06 09:23
22F:推 berice152233: 長知識 05/06 09:35
23F:→ berice152233: 光達現在應該軍事上用的比較多吧 05/06 09:35
24F:→ ewings: 光達可以分辨顏色。只要在鏡頭的部分加分光鏡,將雷射的波 05/06 09:38
25F:→ ewings: 段濾掉再送到一般的彩色攝影機就行。 05/06 09:38
這樣應該還是直接加上相機(彩色攝影機)比較快了 XD
還有一點就是光達解析度相對相機來說低很多
如果要看交通號誌、交通標誌甚至需要判別文字的話
很低的解析度也不夠用
26F:推 sazabik: 構築這套系統所需要的半導體甚多,未來十年還是半導體時 05/06 09:38
27F:→ sazabik: 代,自駕車相關周邊帶來的半導體發展還在更上一層樓,繼 05/06 09:38
28F:→ sazabik: 智慧型手機後,相關產業的就業跟投資還是正向以對 05/06 09:38
29F:→ ewings: 光達不過就是轉得比較快的雷射3維掃描儀而已。 05/06 09:39
30F:→ ewings: 另外講雷達沒有360偵測也是錯的。那只是因為車商多半只是 05/06 09:42
31F:→ ewings: 用固定天線,如果雷達用的是電子掃描天線ESA,或是直接像 05/06 09:42
32F:→ ewings: 光達一樣放到車頂機械旋轉,也一樣有360度的偵測 05/06 09:42
33F:推 holyduck: 長知識推 05/06 09:59
34F:→ holyduck: 不過科技可以不斷進步 成本葉克透過時間以及大量生產模 05/06 10:00
35F:→ holyduck: 式降低 但要達到level 4 甚至5 法規才是最大的gap 05/06 10:00
36F:推 iamala: 推推,這邊的工作內容真的很有趣。 05/06 10:04
37F:→ ciswww: 不完全是法規,請見講座ppt第26~39頁 05/06 10:06
38F:推 xo1st: 漲知識了,謝謝你 05/06 10:17
39F:推 l79cm: 特黑只會說這麼好買了沒 05/06 10:55
40F:推 a11629933: 好奇Tesla使用哪一種神經網路是進行深度學習 05/06 11:15
41F:噓 snapdragon: 兩個鏡頭辨識距離跟深度學習沒關係 05/06 12:05
要判斷距離確實可以不需要用到深度學習,相對簡單的條件下一般的影像識別就能做到
但我說的是Tesla 用的方法是利用神經網路做深度學習去學怎麼只用鏡頭判斷距離
人家就在做了,怎麼會沒有關係?
這完全就在我給的影片中就有講到:
https://youtu.be/Ucp0TTmvqOE?t=8390
42F:推 edwardhsu: 好文推 光達真的貴 公司有用過 05/06 12:40
43F:推 dogluckyno1: 好文 05/06 12:55
44F:→ ewings: 兩個鏡頭辨識距離才需要用到AI吧。雙鏡頭要辨識一顆完美的 05/06 13:10
45F:→ ewings: 球體的距離很容易,但是道路上沒那種完美條件,兩個鏡頭看 05/06 13:10
46F:→ ewings: 到的影像不會一樣,怎麼知道標定的型心是同一個點? 05/06 13:10
47F:推 Gayu: 有比較兩種方案的能耗嗎? 05/06 13:30
比較能耗要看實際的配備才能決定
深度學習如果用GPU 能耗會很大、但若用訂製的AI晶片能耗就比較小
同樣的,光達方案的能耗也不一定
※ 編輯: Scape (1.34.252.81), 05/06/2019 14:52:03
48F:推 xhung: 推 感謝分享 05/06 14:43
50F:推 yuinghoooo: 還有一種是超高精度的GPS和電信定位方法,不過這已經 05/06 16:28
51F:→ yuinghoooo: 涉及車聯網工程了,目前來看斷網也要能安全駕駛似乎是 05/06 16:28
52F:→ yuinghoooo: 目前自駕產業的共識 05/06 16:28
53F:推 JLintopPG: 優文推 05/06 21:46
54F:推 EdwinYeh: 推好文 05/06 22:53
55F:推 atrix: 自駕產業應該從未考慮過車聯網這種口號產品就是... 05/07 00:19
56F:推 henrylin8086: 推,自己就是做SLAM相關研究的,目前大多都還是要 05/07 22:29
57F:→ henrylin8086: 靠LiDAR做輔助,純的Vision要做到優秀的深度還原難 05/07 22:29
58F:→ henrylin8086: 度還真不小。 05/07 22:29
59F:推 Miralles: 推!好文! 05/07 22:32
60F:→ henrylin8086: GPS+基地臺變成會有遮蔽的問題,而且商用GPS的dri 05/07 22:33
61F:→ henrylin8086: ft不是普通的小,Google那是有神一般的演算法才做 05/07 22:33
62F:→ henrylin8086: 到神定位。 05/07 22:33
63F:推 Miralles: 這位教授也有一段半小時多和馬斯克的對談影片也不錯 05/07 22:38
64F:推 henrylin8086: 車用應該都聲納雷達啦,在空氣中衰減很大,距離不 05/07 22:39
65F:→ henrylin8086: 遠,也不穩 05/07 22:39