作者a95641126 (勳哥)
看板car
標題Re: [閒聊] 垃圾光達車又撞牆了XDDDDDDDDD
時間Tue Mar 25 14:22:44 2025
https://youtu.be/qOwEZ5rG-xw?si=1q5no19bk1MPK2YK
有時候真的想知道,那些吹噓光達的人
是真的了解光達,還是只是覺得視覺聽起來沒科技感,才吹光達
光達目前最高的技術,只能做到每秒20幀
一般車用都是每秒10幀
攝影機隨便都30幀 60幀
一個每秒只能跑10幀的感測器,你要放在時速100公里的汽車?
然後光達解析度還特低
你的命不值錢吧
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 92.119.16.41 (美國)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/car/M.1742883766.A.8E0.html
1F:→ tony890415: 你邏輯有問題 光達車也有攝影機啊03/25 14:25
2F:→ tony890415: 你以為光達車是純光達喔03/25 14:25
3F:→ tony890415: 特贏的是靠模型訓練03/25 14:25
4F:→ tony890415: 光達車同時也結合Vision啊 Nvidia方案很多是Lidar+Rad03/25 14:26
5F:→ tony890415: ar+Vision+supersonic的03/25 14:26
6F:推 tony890415: 這個老吳在騙不懂的 邏輯差的03/25 14:28
光達也有攝影機
所以光達會拖垮攝影機的判定啊
你跟一個廢材組隊 做報告
動不動就要參考這個廢材的想法
你做的報告會好嗎?
光達偵測前方靜止大貨車距離我車100米
結果現實是距離30米
但攝影機判斷是32米
你覺得演算法要信光達還是信攝影機
光達沒有即時性 又是超低解析度
注定失敗
7F:噓 QuentinHu: 你看哪台光達車只有光達的03/25 14:31
※ 編輯: a95641126 (92.119.16.41 美國), 03/25/2025 14:32:00
8F:噓 chandler0227: 光達拖垮攝影機? 推算距離的說直接量測距拖垮? 哈03/25 14:33
9F:→ tony890415: 那如果一台車前面放三個光達 讓一個負責1/3扇面 你們03/25 14:33
10F:→ tony890415: 又要說什麼03/25 14:33
光達是360度旋轉的
全面放三顆光達就是產生三個斷片畫面
這你懂嗎
※ 編輯: a95641126 (92.119.16.41 美國), 03/25/2025 14:34:49
11F:推 syterol: 但沒準Vision是成獵人,複合方案是其他S級雜魚+成獵人03/25 14:36
複合方案=
你做報告 組內 有個雜魚
你打籃球 組內 有個雜魚 一直丟分
你打棒球 隊內 有個出包貨 一直放火
整體實力是下降
12F:→ tony890415: 光達測距一定比攝影機準………03/25 14:36
光達在高速下測距非常差
※ 編輯: a95641126 (92.119.16.41 美國), 03/25/2025 14:39:06
13F:→ a95641126: 不具備時效性的感測器 不可能準的03/25 14:40
14F:推 jinshun: 某些人的思維就是硬體塞滿就是強 不管融合效益 軟體優化03/25 14:40
15F:→ jinshun: 真正端到端training 只要能把硬體塞進ppt吹就夠了03/25 14:40
16F:→ a95641126: fsd精度可以到5cm03/25 14:43
17F:→ a95641126: 光達動態下是沒辦法03/25 14:43
18F:推 jinshun: 講個歷史事實 光達是十幾年前的產物 十幾年前就有很多新03/25 14:44
19F:→ jinshun: 創用光達開發自駕了 如今拿出什麼了?!不懂某些人還在03/25 14:44
20F:→ jinshun: 硬捧光達幹麻03/25 14:44
21F:→ syterol: Vision的極限就是看不到的地方沒法判斷吧,比方巷口違停03/25 14:46
22F:→ syterol: 擋住視野的情景,有沒有黑科技能補這塊啊03/25 14:46
擋住視野 想透視 光達也沒辦法
光達只是透過雷射光打到物體上
並接收反射波來計算距離
當障礙物擋住雷射光了
你也是無法偵測到障礙物後方的目標
飛機雷達可以偵測不明飛行物
是因為天空很暢通 沒太多遮擋物
23F:推 spinnerl: 你是不是還停留在mechanical scanning的時代?03/25 14:49
24F:→ spinnerl: solid state lidar有聽過嗎?03/25 14:49
25F:推 tony890415: 現在光達也有phase array03/25 14:53
26F:→ tony890415: @sy 特斯拉做的到 從車窗透過來的微小光影會被看到03/25 14:54
27F:→ tony890415: 特斯拉模型確實很強03/25 14:54
28F:推 spinnerl: 另外Sony 2021就有20FPS/300m的車用Lidar了03/25 14:58
※ 編輯: a95641126 (185.238.28.22 美國), 03/25/2025 15:01:22
29F:→ a95641126: 20fps 不能幹嘛03/25 15:03
30F:→ a95641126: 比20年前傳統電視還差了 03/25 15:03
31F:→ stkoso: 吹FSD的時候就說會一直進步 怎麼光達就沒資格進步了? 03/25 15:03
32F:→ segio: 反正FSD吹就對了.全世界除了我特外都是渣. 03/25 15:06
※ 編輯: a95641126 (185.238.28.22 美國), 03/25/2025 15:07:00
33F:推 jinshun: 美洲 中國等數國已開放 不限街道 城市 天氣 路況皆可開 03/25 15:11
34F:→ jinshun: 啟 這就是FSD的現狀 哪需要靠吹?光達有多厲害 舉個實際 03/25 15:11
35F:→ jinshun: 例子來看看呀 呵 03/25 15:11
36F:推 spinnerl: 你判別200m+外的東西幹嘛要高FPS...真心不懂 03/25 15:24
37F:→ spinnerl: 另外10FPS+不是做不到 只是沒有需要 03/25 15:25
38F:→ spinnerl: 車用IC考慮的絕對比你還多 03/25 15:26
39F:→ dslite: 哪來的免洗帳號 03/25 15:32
40F:推 spinnerl: 順便一提FSD也只用到36FPS 03/25 15:35
41F:→ lay10521: 就算每秒只有10次 0.1秒能前進多遠== 03/25 15:43
42F:推 StarburyX: 光達 沒辦法整合到E2E 目前沒看到方案 03/25 15:51
43F:→ StarburyX: 只有研究有相關paper 03/25 15:52
44F:推 StarburyX: 市售車 只要看到有光達 基本都不是端到端 03/25 16:01
45F:→ StarburyX: 不是端到端 規控就是一堆rule 沒未來 03/25 16:01
46F:推 StarburyX: 對岸momenta 號稱已參透E2E 追上V12 03/25 16:06
47F:→ StarburyX: 實際上FSD入華後,一比之下還差的遠... 03/25 16:07
48F:噓 QuentinHu: 感測器融合不是你亂比喻的那樣什麼做報告實力被拖 03/25 16:08
49F:→ StarburyX: 就算用光達的傳統架構 現在對無保護左轉 03/25 16:08
50F:→ StarburyX: 還是很掙扎 03/25 16:08
51F:→ StarburyX: 認真說 對岸自駕實力 應該落在V11早期 03/25 16:09
52F:推 mingdao: 對岸全部車廠都在用特斯拉22年AI day發表的舊架構 03/25 16:24
53F:→ mingdao: 特斯拉當時吃了悶虧 不辦了 對岸也沒得抄 03/25 16:25
54F:→ mingdao: 簡單講就是偽端到端 特斯拉的FSD還看不到追趕者 03/25 16:25
55F:→ mingdao: 別再扯光達了 光達廠都快倒光了 純視覺才是正道 03/25 16:26
56F:→ mingdao: 但除了特斯拉 沒人做的出來也沒人搞得懂 03/25 16:27
57F:→ zzahoward: 只是現在演算法還沒出來而已.... 03/25 16:32
58F:推 k7881683: 這就是我要的氣氛 03/25 16:35
59F:推 StarburyX: 蠻奇怪 兩年了 其他的車廠還是弄不出端到端 03/25 17:04
60F:→ StarburyX: 不像LLM,grok GPT deepseek 百花齊放 03/25 17:05
61F:→ StarburyX: 特斯拉算法的護城河 比想像中高很多 03/25 17:05
62F:噓 Syg: 噓 03/25 17:07
63F:推 geniusw: 光達陣營加油 03/25 17:18
64F:推 shownlin: 光達的output如果是garbage 只會影響模型判斷 03/25 17:19
65F:→ shownlin: 模型的input不是越多越好,增加維度當然是可以增加inf 03/25 17:20
66F:→ shownlin: ormation,但noise也會變大 03/25 17:20
67F:→ arabeske: YouTube 有個叫曲博的 曾講過光達,可以去參考下 03/25 17:33
68F:推 DamnAlfie: 如果當初rule base做到60分 要全砍從零開始做E2E 要有 03/25 18:11
69F:→ DamnAlfie: 很大勇氣 老馬那種魄力是極少見的 03/25 18:11
70F:推 mingdao: 曲博 笑死 他就是拼命吹光達 黑特斯拉的傢伙 03/25 18:29
71F:推 Killercat: 光達比較致命性的缺點應該是無法拿影片訓練 03/25 18:53
72F:→ Killercat: 其他應該就還好,技術路線分歧而已 03/25 18:54
73F:→ Killercat: 另外特斯拉其實滿依賴影片訓練的 影片不會有光達跟毫 03/25 19:00
74F:→ Killercat: 米波資訊,在現實世界中接入這種input自然比較像雜訊 03/25 19:00
75F:→ Killercat: 這無關光達還是毫米波好壞 單純就無法當訓練資料而已 03/25 19:01
76F:→ ASKA: 時速 90KM,0.1 秒大概是 2.5 公尺 03/25 19:06
77F:噓 chandler0227: 速騰、禾賽營業額跟出貨量都還在上升,說光達廠快 03/25 19:07
78F:→ chandler0227: 倒光的到底在哪個平行世界? 03/25 19:07
79F:→ chandler0227: 說綜合兩種方案中測距比視覺更準確的光達是拖累更 03/25 19:09
80F:→ chandler0227: 幽默了 03/25 19:09
81F:噓 QuentinHu: 說真的有黑就有粉 但說光達廠快倒光的是不是在造謠 03/25 19:14
82F:推 kazami: 有人在吹噓光達嗎?不都是特粉在吹純視覺多厲害多厲害 03/25 20:44
83F:→ kazami: 然後硬要把別人貶低成垃圾來突顯自己多厲害 03/25 20:45
84F:→ orzzz: "XX要倒了"本就部分特友的輿論套路,早在10年前就喊雙B要 03/25 20:52
85F:→ orzzz: 倒了要被特斯拉取代了,後續又加入了保時捷及其他豪牌,再 03/25 20:52
86F:→ orzzz: 後來又戰營銷模式,現在則延伸到周邊廠商 03/25 20:53
87F:推 mingdao: 去看看luminar裁員多少吧 這家大廠指標很明顯了 03/25 20:53
88F:→ mingdao: X上即時消息都很多 研究光達的工程師不是裁員就是跳船 03/25 20:55
89F:→ mingdao: 其實也不是貶低別人 未來這技術就是贏者全拿 03/25 20:55
90F:→ Killercat: er 老實講連Tesla這家壓根沒啥用光達的都能成為他最大 03/25 20:55
91F:→ Killercat: 客戶,我覺得拿他當例子應該不是很有說服力啦... 03/25 20:56
92F:→ Killercat: 混得好的光達供應商應該也是一抓一大把 03/25 20:56
94F:→ chandler0227: 從2022到2023市場佔比直接從5%掉到1%的說是大廠指 03/25 21:31
95F:→ chandler0227: 標?錯誤類比成整個光達市場? 03/25 21:33
96F:推 as6633208: 確實欸,這每秒20禎感覺硬傷,反應速度超慢 03/26 02:17
97F:→ as6633208: 每秒10禎...算了吧 03/26 02:17
98F:噓 JKGOOD: 0 03/26 06:33
99F:→ bbbing: 效能低到不堪用就別用了,還拿來吹啥 03/26 13:55