car 板


LINE

看板 car  RSS
※ 引述《leefengynh (/65G ・ 125/250K1W)》之銘言: : 看起來是造假的 : https://imgur.com/5KHC7Ew : https://imgur.com/RnPOd5C : 撞車前一秒就把AP取消了 畫面中汽車旁邊兩條藍線消失 就代表AP已經取消了 : 目前還是找不出哪一家車廠的自動駕駛能趕上特斯拉fsd的 你說了一堆,其實你的理論根本沒搞清楚狀況 今天Mark Rober的實驗,就是故意去製造純視覺的障礙 他收了LiDar的贊助,就是要表現出純視覺的限制阿 你在那邊瞎扯一堆,但純視覺物理限制還是在那邊 我先問,AP的AEB功能跟FSD的資訊輸入源頭是不是都是攝影機? 那你怎麼覺得在同樣輸入源的情況,FSD能展現出與AP不同的天眼通? 還是你要說Tesla為了賣FSD沒把AP的AEB能力升級到天眼通的能力? 其實很多人把LiDar拿來當所謂的自動駕駛控制設備 但根本搞錯方向,LiDar只是其中一個訊號接收源而已,如同攝影機或雷達 FSD是在"攝影機"可視情況下透過類神經網路演算法達到高度自動駕駛控制 那你說FSD未來能不能整合LiDar? 廢話當然可以,甚至這樣組合的FSD一定更強 老實說我覺得FSD在面對一些極端環境應該就停下來或是關閉 Tesla為什麼不用LiDar? 因為成本考量阿 哪天LiDar價格下降會不會轉彎也不知道 事實上,Nvidia solution就是準備純視覺+LiDar以及各式各樣感測器的混合體 當然用得起老黃產品的車廠大概也都是豪華車等級 (Mercedes/Volvo/JLR之類的) Tesla現在走的很前面沒錯,但老黃純視覺也不是吃素的 很多人看到Tesla就急急忙忙跳出來護航或跳出來嘲諷 根本沒搞清楚整件事情的本質和設備 你今天換成LiDar要你去辨識路標、顏色之類也是不可能 我也承認純視覺是邁入高階自駕的主力,但LiDar目前看起來是完成純自駕的最後防線 兩者本質上是可以互補的 不要因為Tesla想省成本就在那邊搞非A即B好嗎 --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 136.226.240.114 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/car/M.1742340330.A.B6F.html ※ 編輯: zzahoward (136.226.240.114 臺灣), 03/19/2025 07:30:53
1F:→ Killercat: 不過這影片有問題的地方不在這裡 03/19 08:34
2F:→ Killercat: 其實這是一個很好證明LiDAR能在某些情況下有用的機會 03/19 08:35
3F:→ Killercat: 但是看起來Mark Rober搞砸了 造成只能當相罵本了 03/19 08:35
4F:→ Killercat: 至於路上有多少機會碰到這種scenario我覺得反而是其次 03/19 08:36
5F:→ Killercat: 就算路上碰不到 這也是個很好的POC案例 03/19 08:37
6F:推 leefengynh: 不要不懂裝懂了啦 03/19 08:43
7F:→ leefengynh: 會不會撞是由演算法決定的 03/19 08:43
8F:→ leefengynh: 人類為什麼看得出那是塊板子 03/19 08:43
9F:→ leefengynh: ai就看不出來 03/19 08:43
10F:→ leefengynh: 廢話一堆 03/19 08:43
11F:→ leefengynh: ai的智商是由演算決定的 03/19 08:45
12F:→ leefengynh: 而fsd就是不會撞 所以他才不敢用fsd測試 03/19 08:45
13F:→ leefengynh: 而ap也不會撞 所以他才故意關掉ap 03/19 08:45
14F:→ leefengynh: 而aeb可以事前先關閉 所以aeb才沒發揮作用 03/19 08:45
15F:→ leefengynh: 整件事就是他開車自己去撞的xdddd 03/19 08:45
16F:推 tony890415: 無腦特粉會說激光雷達會干擾 03/19 08:46
17F:→ leefengynh: 要講liadar多強 03/19 08:48
18F:→ leefengynh: 先舉實際已經在路上跑的產品出來 03/19 08:48
19F:→ leefengynh: 不要自己幻想 根本還沒出現在地球上的產品xdddd 03/19 08:48
20F:→ leefengynh: 事實上就是lidar的自駕車已經在路上跑的去全部不如純 03/19 08:48
21F:→ leefengynh: 視覺 03/19 08:48
22F:→ leefengynh: 光達多強都是幻想出來的 xdxd 03/19 08:49
23F:→ leefengynh: 實際產品都生不出來 03/19 08:49
24F:→ leefengynh: 什麼nvidia說要合作做自駕車幾年了 03/19 08:50
25F:推 jdkcupid: 人類看得出來因為對不規則反光的處理啊, 03/19 08:50
26F:→ leefengynh: 生出什麼屁了 03/19 08:50
27F:→ jdkcupid: 光達就是直接對反射做處理 03/19 08:50
28F:→ leefengynh: 特斯拉都已經獲得加州無人計程車營運許可了 03/19 08:50
29F:→ leefengynh: 老黃的車在哪裡xdddddd 03/19 08:50
30F:→ leefengynh: 人類看得出來 是因為大腦的視覺聯合區解析的出來 03/19 08:51
31F:推 Killercat: er... Waymo就是LiDAR solution阿 03/19 08:52
32F:→ Killercat: 不過應該不是使用老黃的那套就是 03/19 08:52
33F:→ leefengynh: 你的大腦視覺聯合區被打爛 你就算有視覺 你也判斷不 03/19 08:53
34F:→ leefengynh: 出什麼鬼lol 03/19 08:53
35F:→ leefengynh: 而視覺聯合區 在ai內就是所謂的演算法 03/19 08:53
36F:→ Killercat: 我倒是覺得成本不是最大障礙 障礙在於LiDAR無法像純視 03/19 08:53
37F:推 joybarbarian: Z大我最近有去試(舊)MYP,還蠻好玩的說 03/19 08:53
38F:→ Killercat: 覺一樣快速從影片中獲得學習能力 03/19 08:53
39F:噓 jinshun: 特斯拉已經公開解釋好幾次為何不用Lidar了 包括發表會和 03/19 08:53
40F:→ jinshun: 法說會 甚至外資論壇 和省成本沒有關係 03/19 08:54
不是為了成本FSD+LiDar的Integration絕對更強啦 純視覺很強,但就是有物理限制阿,攝影鏡頭終究還是平面用演算法去判斷 光達可以打反射出來繪製出3D
41F:→ leefengynh: waymo出包還不夠多嗎 居然有人敢舉waymo xddd 03/19 08:54
42F:→ leefengynh: 搞了10年全美至今才709台車 03/19 08:54
43F:→ leefengynh: 你們卻不知道他滿是問題lol 03/19 08:54
44F:→ Killercat: 其實我覺得說省成本的可能是跟前保桿攝影機混為一談了 03/19 08:54
45F:→ Killercat: 那個就真的完全就是成本考量 XD 03/19 08:55
46F:→ Killercat: Waymo出包規出包 但是它的確是運營中的LiDAR Solution 03/19 08:55
47F:→ leefengynh: 這裡很多草包不知道waymo很弱xddd 03/19 08:57
48F:→ leefengynh: waymo後台 人車比是1:2 03/19 08:57
49F:→ leefengynh: 用1個人在開2台車 03/19 08:57
50F:→ leefengynh: 你跟我說光達車有什麼好績效xddd 03/19 08:57
51F:→ leefengynh: waymo的遠程接管比例多高 03/19 08:57
52F:推 ppegg: 人的視覺就不包括lidar。如果是要類人駕駛靠純視覺+演算法 03/19 08:57
53F:→ leefengynh: 需要1個人盯著2台車 03/19 08:57
54F:→ ppegg: 終究可以。多幾個攝影機或lidar則可以超越人類駕駛 03/19 08:58
55F:→ Killercat: 他弱歸弱 但是的確是LiDAR Solution目前最遠的 而且說 03/19 08:58
56F:→ Killercat: 起來也至少要等Cybercub運營個一陣子再來比較吧 03/19 08:58
57F:→ leefengynh: waymo的安全性統計起來比全美人類司機還低 還光達勒 03/19 08:58
58F:推 ppegg: lidar不是人類的經驗,很難用人協助訓練吧 03/19 09:00
59F:→ leefengynh: 每40萬英里就出現一次報警事故 03/19 09:00
60F:→ leefengynh: 全美人類是70萬 03/19 09:00
61F:→ leefengynh: waymo搞了10年才勉強逼近40萬 最近幾年已經在40萬停 03/19 09:00
62F:→ leefengynh: 滯不前 03/19 09:00
63F:→ leefengynh: 光達車看waymo那個死樣子 極限就是那樣 03/19 09:02
64F:→ leefengynh: 另外一家光達車 cruise已經退出市場了 03/19 09:02
65F:→ Killercat: 可以合理預期Cybercab表現更好啦 但是先等看看吧 03/19 09:02
66F:→ leefengynh: cruise直接輾過人 你跟我說光達好棒棒xddd? 03/19 09:03
67F:→ leefengynh: waymo 你大概沒看過 載著乘客直接失控原地繞圈的新聞 03/19 09:03
68F:→ leefengynh: 需要後台用1個人類 接管2台車 03/19 09:05
69F:→ leefengynh: 而不是1個人類 管20台車 03/19 09:05
70F:→ leefengynh: 就可以知道waymo 遇到很多場景走不動需要人類解圍的 03/19 09:05
71F:→ leefengynh: 比率有多高了xddd 03/19 09:05
72F:推 leefengynh: 如果waymo的自駕技術靠譜 03/19 09:10
73F:→ leefengynh: 早就幾萬台遍佈全美了 03/19 09:10
74F:→ leefengynh: 還會搞了幾百年才700台車? 03/19 09:10
75F:→ leefengynh: 全美計程車+uber+lyft有100萬台 03/19 09:10
76F:→ leefengynh: 你waymo玩了10年 700台 明眼人都知道技術遇到瓶頸了 03/19 09:10
你根本搞不清楚我說的 純視覺是高等級自動駕駛主力沒問題,但LiDar可以成為最後一道防線 讓車子更安全、偵測距離更遠、範圍更廣 兩者可以互補而不是只能擇一
77F:→ timk7: 先等特斯拉上線有實績再說吧,不然說誰一定強也沒結果 03/19 09:13
78F:→ Killercat: er..你是老頭嗎 一直重覆一些大家都知道的事 =_=a? 03/19 09:13
79F:推 kira925: 就是因為只有這水準 所以他只能一直洗一樣的吧 03/19 09:15
80F:推 tony890415: 真的 特斯拉的AEB數據就是不如對岸光達車 但是FSD智駕 03/19 09:16
81F:→ tony890415: 能力又比對岸光達車強 懷疑是AEB沒加入AI演算 03/19 09:17
82F:→ tony890415: 因為特斯拉晚間AEB大概只能到7-80公里煞停 但是華為 03/19 09:17
83F:→ tony890415: 的可以到110 03/19 09:17
84F:→ tony890415: 很懷疑是為了賣FSD所以把AEB AP的算力閹掉了 03/19 09:29
85F:→ tony890415: 但另一個角度 有買FSD的車子在人駕時 AEB看測試也沒 03/19 09:29
86F:→ tony890415: 變好 一樣爛 跟傳統車廠差不多 03/19 09:30
87F:→ leefengynh: 「lidar成為最後一道防線」 03/19 09:31
88F:→ leefengynh: 這就是光達派「靠感覺」所說出的一句話 03/19 09:31
89F:→ leefengynh: 事實上lidar和鏡頭 很常發生矛盾的情況 03/19 09:31
90F:→ leefengynh: 「矛盾傳感器」是不能讓你作為安全冗餘使用的 03/19 09:31
91F:→ leefengynh: 一個傳感器判斷前面是硬物障礙物 要剎車 03/19 09:31
92F:→ leefengynh: 一個傳感器判斷前面是氣體障礙物 要緩慢通過 03/19 09:31
93F:→ leefengynh: 請問要聽誰的? 03/19 09:31
94F:→ leefengynh: 用最高標準去把它當硬物煞車 03/19 09:31
95F:→ leefengynh: 明明只是濃霧 你急煞被後車追撞嗎 03/19 09:32
96F:→ leefengynh: AEB可以請關掉 03/19 09:33
97F:→ leefengynh: 那個人已經被證明造假 03/19 09:33
98F:→ leefengynh: 既然是造假仔 那合理推斷就是會偷把aeb關掉 03/19 09:33
99F:→ leefengynh: aeb不是ai 03/19 09:34
100F:→ tony890415: 你去看之前的實測影片 特斯拉AEB很多場景就是沒反應 03/19 09:35
101F:→ tony890415: 不然就是太晚 我自己本人也撞過 03/19 09:35
102F:→ kira925: ....可以確定某l一竅不通只會洗文了 03/19 09:35
103F:→ leefengynh: 就一直以為「光達=超感官」真的笑死 03/19 09:37
104F:→ leefengynh: 光達明明就某某些方面比人眼強 03/19 09:37
105F:→ leefengynh: 但多數方面都比人眼還廢 03/19 09:37
106F:推 kira925: 航空器早就都有類似的實作 在那邊洗文 03/19 09:37
107F:→ leefengynh: 你kira925先讀書再來吧 連光達的缺點是什麼都不知道 03/19 09:38
108F:→ leefengynh: 就幻想超感官xddd 03/19 09:38
109F:噓 lll156k1529: 別跟那個身分仔講話= = 03/19 09:38
110F:→ tony890415: @l 我覺得跟光達無關 因為同樣有光達的車 AEB程度還是 03/19 09:38
111F:→ tony890415: 有差 我覺得是特斯拉AEB沒套好AI 03/19 09:38
112F:→ leefengynh: 航空器用雷達居多 誰跟你用光達 03/19 09:39
113F:→ kira925: 那三個字只有你在寫 03/19 09:39
114F:→ tony890415: 特斯拉的AEB看起來就跟傳統車廠差不多 03/19 09:39
115F:→ kira925: 你慢慢洗文 慢走不送 03/19 09:39
116F:→ leefengynh: 航空跟開車一樣嗎 03/19 09:40
117F:→ leefengynh: 天空又不像路面擁擠 開飛機就算都人眼都被雲層擋住 03/19 09:40
118F:→ leefengynh: 也沒差 03/19 09:40
119F:→ leefengynh: 講不出個屁 人就走了 xdddd 03/19 09:41
120F:→ leefengynh: 那不如一開始就不要浮出來 03/19 09:41
121F:→ leefengynh: 航空器裝光達 我聽過最好笑的笑話 03/19 09:42
122F:→ leefengynh: 還是你雷達跟光達分不清楚xdd 03/19 09:42
123F:→ kira925: 冗餘度跟多數決 誰跟你在那邊分高低 03/19 09:43
124F:→ kira925: 光達還是雷達根本不是重點 03/19 09:43
125F:→ leefengynh: 光達 vs 純視覺 就只剩你們這群外行人一直在爭 03/19 09:45
126F:→ leefengynh: 業界都在拼演算法了 03/19 09:45
127F:→ leefengynh: 拿rule based時代的議題來爭 全部是韭菜 03/19 09:45
128F:→ leefengynh: 你真的以為waymo或市面上的光達車 03/19 09:48
129F:→ leefengynh: 他們裝光達 是為了冗餘嗎? 03/19 09:48
130F:→ leefengynh: 他們裝光達 不是為了冗餘耶 03/19 09:48
131F:→ leefengynh: 他們的感知層只會輸出一個結果 03/19 09:48
132F:→ leefengynh: 而不是兩個結果 03/19 09:48
133F:→ leefengynh: 既然只輸出一個結果 哪來冗餘之說 03/19 09:48
134F:→ leefengynh: 胡説八道 03/19 09:48
135F:→ leefengynh: waymo會裝光達 只不過是要使用高精度地圖 有了高精度 03/19 09:50
136F:→ leefengynh: 地圖 03/19 09:51
137F:→ leefengynh: 那麼ai智商就不用這麼高 03/19 09:51
138F:→ leefengynh: 也就是演算法的技術門檻就比較低 03/19 09:51
139F:→ leefengynh: 可以快速商業化 03/19 09:51
140F:→ leefengynh: 哪是為了安全冗餘 笑死 03/19 09:51
141F:→ ilovedirk41: 蘋果手機不就有光達? 03/19 09:54
142F:→ leefengynh: 但是惡果也馬上浮現 03/19 09:55
143F:→ leefengynh: 就是司機成本只能降低50% 03/19 09:55
144F:→ leefengynh: 1人管2台車 費用也比人工計程車還貴 03/19 09:55
145F:→ leefengynh: 演算法低智商 03/19 09:55
146F:→ leefengynh: 遇到一堆狀況需要後台人類解圍 03/19 09:55
147F:→ leefengynh: 成本降不下來 沒在高精度地圖覆蓋區域無法駕駛 03/19 09:55
148F:→ leefengynh: xdddd 03/19 09:55
149F:→ leefengynh: 偷吃步 難怪技術遇到瓶頸 03/19 09:56
150F:→ leefengynh: 光達車就是沒高精度地圖覆蓋的區域 連正常的轉彎都沒 03/19 09:57
151F:→ leefengynh: 辦法xddd 03/19 09:57
152F:→ leefengynh: 這就是軌道車 不是靠車子臨場去解析道路的3D結構 03/19 10:00
153F:→ leefengynh: 而是預先要輸入道路3D結構給汽車 03/19 10:01
154F:→ leefengynh: 這根本危險 因為道路3D結構會一直改變 03/19 10:01
155F:→ leefengynh: 那你就要每幾個禮拜重制一次地圖 03/19 10:01
156F:→ leefengynh: 笑死 難怪只有700台 無法擴大到全美 03/19 10:01
157F:推 QuentinHu: 不用管特鐵粉啦,煥新Y出來之前還不是講方向燈撥桿跟 03/19 10:03
158F:→ QuentinHu: 前鏡頭沒必要,最後自己被打臉,這些人都不會認錯的 03/19 10:03
159F:→ leefengynh: 依賴高精度地圖的自駕絕對不是solution 03/19 10:05
160F:→ leefengynh: 那只是軌道車 不叫自駕 03/19 10:05
161F:→ leefengynh: 幾乎所有光達車都依賴預先輸入高精度地圖 03/19 10:05
162F:→ leefengynh: 車子臨場對道路3d結構拓撲解析的能力很低 03/19 10:05
163F:→ leefengynh: 這種做法非常危險 萬一遇到修路 道路結構改變 而你3 03/19 10:06
164F:→ leefengynh: d高精度地圖沒有即時更新 03/19 10:06
165F:→ leefengynh: 車子直接車禍 03/19 10:06
166F:→ leefengynh: 而且只能在固定區域才能自駕 xddd 03/19 10:06
167F:→ QuentinHu: 其實多感測器就是能互相補足單一感測器在某些工況底下 03/19 10:07
168F:→ QuentinHu: 的限制,理論上就是裝越多越好,現在的問題是成本問題 03/19 10:07
169F:→ QuentinHu: 而已,就是這麼簡單的道理。但是特鐵粉不知道為什麼就 03/19 10:07
170F:→ QuentinHu: 是愛Diss特斯拉方案以外的其他東西,每個都好像是在幫 03/19 10:07
171F:→ QuentinHu: 馬斯克工作一樣。這些特鐵粉當初還嘲笑Toyota說會變成 03/19 10:07
172F:→ leefengynh: 我沒講前鏡頭不重要啊 03/19 10:07
173F:→ QuentinHu: Nokia咧,每個都是差不多這樣,不用跟他們爭執什麼 03/19 10:07
174F:→ leefengynh: 不要故意幻想我講的好嘛 03/19 10:07
175F:→ leefengynh: 可悲韭菜東西xddd 03/19 10:08
176F:→ leefengynh: 前鏡頭超香的好嗎 03/19 10:08
177F:→ leefengynh: 當然不是裝越多越好 03/19 10:09
178F:→ leefengynh: 這只要有在玩智慧家庭自動化的人都能理解 03/19 10:09
179F:→ leefengynh: 「同一類的傳感器」越多 的確越好 03/19 10:10
180F:→ leefengynh: 「不同類的傳感器」越多不一定越好 03/19 10:10
181F:→ leefengynh: 因為不同類的傳感器會造成矛盾 打架 03/19 10:12
182F:→ leefengynh: 就是這麼簡單 而不是互補 03/19 10:12
我以為AI演算法本來就會有一堆決策出來,然後根據分數去做決定不是嗎 沒道理多一個3D建模會更差
183F:推 QuentinHu: 嗯嗯我沒點名誰,你不用對號入座 03/19 10:13
184F:→ leefengynh: 傳感器越多越好 怎麼不去叫feijq裝光達? 笑死 03/19 10:21
185F:→ leefengynh: 飛機只有雷達 沒有光達好危險 不去哭哭嗎xdddds 03/19 10:21
186F:→ cabin2501: 從教主 副教 現在又一個 03/19 10:23
187F:→ cabin2501: 不要理會就好 03/19 10:23
188F:→ leefengynh: 你們這群外行韭菜「靠感覺論述」到中毒了 03/19 10:23
189F:→ leefengynh: 文組腦xddd 03/19 10:24
文組腦袋? 你多一個3D建模資訊來源會讓自動駕駛更差的意思? 你真的理解AI嗎....
190F:噓 carryton: 原文說AP被取消,FSD更不可能開啟 03/19 10:25
191F:→ carryton: 你這篇連原文都誤解根本廢文一篇 03/19 10:25
那就更有問題了 當AP/FSD都被取消狀態下,你的AEB判斷能力大幅下降 這樣可以嗎?
192F:噓 MoonCode: 03/19 10:35
193F:推 h311013: 純視覺無法穿透迷霧的,除非用的是熱成像或紅外線照射, 03/19 10:58
194F:→ h311013: 特斯拉應該有裝這東西吧? 03/19 10:59
195F:噓 Arsen2017: 你才搞不清楚狀況 AP和FSD都沒開好嗎 03/19 10:59
沒開AP/FSD AEB判斷能力就會掉一大截這種說法有點奇怪
196F:推 hasimofo: 在激動什麼 有光達加上相機的技術依定比只有單一技術好 03/19 11:06
197F:→ hasimofo: 這有什麼好討論的?阿你多一項數據可以來分析咩 03/19 11:06
198F:→ hasimofo: 現在不裝單純太貴 等國產的更捲一點就可以了 03/19 11:07
199F:→ hasimofo: 飛機需不需要光達我不知道 但是沒理由多了一個3D資訊源 03/19 11:08
200F:→ hasimofo: 會變更差的 樓上到底在吵啥 03/19 11:08
201F:推 kira925: 講攏餘度的意思是 飛機會有多重獨立的感測器系統 03/19 11:13
202F:→ kira925: 同時作出獨立決定 然後會有多數決(可能是三重不同決策) 03/19 11:13
203F:→ kira925: 而不是什麼AI怎樣 rule based怎樣 這是在那之前的東西 03/19 11:14
204F:→ kira925: 在那邊炒光達雷達的字面吵架不知道在搞什麼... 03/19 11:14
205F:→ kira925: 寫一堆情緒性文字 不知道哪來的狂粉 03/19 11:15
206F:推 hasimofo: 呂布不用AK只用方天化戟一定是因為現代武器比較爛 03/19 11:19
207F:噓 Arsen2017: AEB是可以關的 影片都故意造假了你確定他沒關? 03/19 11:51
208F:推 casper955033: 光達 + 純視覺AI 又不衝突 03/19 11:53
209F:→ Charles0421: 特斯拉粉絲就是這樣才會讓人對特斯拉觀感其差 03/19 11:54
210F:→ Charles0421: 一對特斯拉有疑問就人身攻擊 無法正常討論 03/19 11:54
211F:→ Charles0421: 車版不是你特粉一言堂的宣傳工具 03/19 11:54
212F:→ Charles0421: 是不同意見討論的場所 03/19 11:54
213F:推 gk1329: 現在很多掃地機器人都在用 很便宜惹啊 03/19 12:14
214F:→ Rukawa31: 意見不同就說別人 廢話 屁 外行韭菜 文組腦 然後一堆x 03/19 12:20
215F:→ Rukawa31: ddd 阿這就沒要討論的意思啦 03/19 12:20
216F:→ Rukawa31: 你各位就當某人今年來吃-50%需要一個大平台洩恨 03/19 12:21
217F:噓 moom50302: 你比特所有研發員都聰明,特不用原因根本不是成本問題 03/19 12:21
218F:→ moom50302: 特說過光達會跟現有計算造成影響,就繼續腦補可以合用 03/19 12:22
因為Tesla一開始就打定主意不要Integrate LiDar solution... 老黃的就有
219F:推 kazami: 你跟這位股板跑來的新警察講沒啥用啦 現在可能正因這幾個 03/19 12:37
220F:→ kazami: 月狂跌坐立不安 03/19 12:37
221F:推 seemoon2000: 只要能解決顧客需求的方案都行 顧客哪有差 03/19 12:38
222F:推 OBTea: LiDar 的判斷會增加false alarm 拖累效能,其實也是省成本 03/19 12:39
223F:→ OBTea: 的一環 03/19 12:39
224F:→ OBTea: 今天這個實驗就是業界內部訓練舉出視覺判斷盲點的經典例子 03/19 12:40
225F:→ OBTea: ,7-8年前就有的東西 03/19 12:40
226F:→ dslite: 馬斯克減成本的藉口被拿來當聖經喔 笑死 03/19 12:48
227F:→ leutk: 覺得依龍馬沒有僱用你真的太可惜了 如果有你的指導 03/19 12:49
228F:推 kazami: 以前就看過朋友的老闆不知道哪要來的影像叫他加進去訓練 03/19 12:50
229F:→ leutk: 特斯拉統一自駕的天下真的是指日可待 你想到它們想不到的 03/19 12:50
230F:→ kazami: 然後原本的正確度從略超過90%,驟降到6、70%,後來改參數 03/19 12:51
231F:→ kazami: 也是只能到80%左右,後來老板叫他換其他模型試試,後續我 03/19 12:52
232F:→ kazami: 就不知道怎樣了,從我聽到的經驗,加入Lidar對現有結果產 03/19 12:52
233F:→ kazami: 生不良的影響其實相當合理 03/19 12:52
234F:→ nrsair: 光學鏡頭 光達 雷達 超音波 通通都做到車上 03/19 12:53
235F:→ kazami: 只看特要不要花這些成本去做而已,我朋友是因為要畢業不得 03/19 12:53
236F:→ kazami: 不做 03/19 12:53
237F:→ Killercat: 訓練資料很怕衝突 你一直教他1 2 3後面會是4 突然出現 03/19 12:57
238F:→ Killercat: 幾筆資料1 2 3後面接100 這樣模型會變得很不穩定 03/19 12:58
239F:推 OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
240F:→ OBTea: 沒錯 03/19 13:05
241F:→ OBTea: 修正:視覺+光達 03/19 13:06
其實不能這樣說,人眼的機構其實很誇張 視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器 目前硬體無法達到這個等級
242F:推 OBTea: 特斯拉應該不是沒想過,一來這會拖慢自動駕駛開發速度,二 03/19 13:12
243F:→ OBTea: 來這情況在現實發生的機率大概一輩子都不會遇到,三來正常 03/19 13:12
244F:→ OBTea: 人類視覺判斷就可以99%時間避免是故,更何況AI是集人勒視覺 03/19 13:12
245F:→ OBTea: 能力大成 03/19 13:12
246F:推 ozyamazaki: 有人從小教育就是服從 連獨立思考提出質疑都不會 03/19 13:13
247F:噓 leefengynh: 老黃的車在哪? 明明就一個外行 連老黃在賣什麼都不 03/19 13:15
248F:→ leefengynh: 知道xddd 03/19 13:16
249F:→ leefengynh: 發現現實生活中的光達車都打不贏fsd了 03/19 13:16
250F:→ leefengynh: 就幻想一個「老黃的自駕車」出來 03/19 13:16
老黃Solution =/= 老黃自駕車 我覺得你常常搞混東西 Mercedes/Volvo目前都是用老黃Solution,而Mercedes是可以拿到Lv3的
251F:→ leefengynh: 然後產品到底在哪xdddd 03/19 13:16
252F:→ leefengynh: 然後就自己生出一個一個意識形態 03/19 13:17
253F:→ leefengynh: 「傳感器多一點 資訊比較多 一定好」 03/19 13:17
254F:→ leefengynh: 生成式ai 放入 光達和視覺 兩者訓練出來的ai就沒一個 03/19 13:20
255F:→ leefengynh: 比純視覺強 然後你在那邊靠感覺 03/19 13:20
256F:推 OBTea: 資訊自然越多越好,是現在AI模型,演算法或是算力的限制才 03/19 13:20
257F:→ OBTea: 顯得純視覺是目前最佳解 03/19 13:20
258F:→ OBTea: AI也是要GPU和記憶體到位才顯得有效益 03/19 13:21
259F:→ leefengynh: 早期特斯拉的車都有雷達 03/19 13:23
260F:→ leefengynh: 誰跟你「特斯拉一開始打定要純視覺」 03/19 13:23
261F:→ leefengynh: 雷達+視覺就是無法在「生成ai架構下」訓練出好的結果 03/19 13:24
262F:→ leefengynh: 特斯拉才關閉舊車上面的雷達 03/19 13:24
263F:→ leefengynh: 什麼特斯拉一開始打定純視覺 胡說八道 03/19 13:24
264F:→ leefengynh: 特斯拉一開始是雷達+視覺 03/19 13:24
265F:→ leefengynh: 實證下來就是比純視覺差 03/19 13:24
266F:→ leefengynh: 你去買2018年的特斯拉 哪台車沒雷達 03/19 13:24
267F:→ leefengynh: 笑死 03/19 13:24
268F:推 OBTea: 特斯拉自動駕駛的確很早就走純視覺 03/19 13:24
269F:→ OBTea: 2017-2018大概就確立方向 03/19 13:25
270F:推 orange7986: 是說關於Waymo發展慢我認為不光是技術瓶頸啦,州政府 03/19 13:27
271F:→ orange7986: 法規、市場接受度、造車成本都是發展緩慢的原因之一 03/19 13:27
272F:→ orange7986: ,但仍是市場領先者、先行者 03/19 13:27
273F:推 skizard: 從一開始就只可能sensor fusion 過L5了 03/19 13:29
274F:推 orange7986: *是指自駕計程車 03/19 13:30
275F:→ leefengynh: 現在的ai模型就不是資訊越多越好 03/19 13:30
276F:→ leefengynh: 亂餵一通模型就長的好 03/19 13:30
277F:→ leefengynh: 餵的東西 和 演算法 才是重點 03/19 13:30
278F:→ leefengynh: 模型才不會長歪 03/19 13:30
279F:→ leefengynh: 聽文組腦在那邊靠感覺 03/19 13:30
280F:→ leefengynh: 以為把視覺和雷達資訊都餵進去 03/19 13:30
281F:→ leefengynh: ai模型長出來的能力值就會大於只餵視覺 03/19 13:30
282F:→ leefengynh: 可是這件事一直都是你自己在幻想的 03/19 13:31
283F:→ leefengynh: 不是嗎 03/19 13:31
284F:→ leefengynh: 特斯拉早期用雷達+視覺效果就不好 03/19 13:31
285F:→ leefengynh: 然後你還在幻想都拿去餵ai 會更強lol 03/19 13:31
人眼構造根本不是當代攝影機硬體可以比得上的,因此需要輔助感測器
286F:推 OBTea: 很早的時候,低成本自動駕駛解決方案很多就走純視覺,中國 03/19 13:33
287F:→ OBTea: 也一堆在搞,所以自駕才會追得那麼快 03/19 13:33
288F:→ OBTea: 就演算法跟不上資訊量才顯得純視覺是目前最佳,這有什麼好 03/19 13:35
演算法跟得上啦 只是Tesla懶得打掉重練把LiDar放進去
289F:→ OBTea: 跳針的... 03/19 13:35
290F:推 leefengynh: 中國沒半間自駕走純視覺 03/19 13:36
291F:→ leefengynh: 純視覺是技術最難的 03/19 13:36
292F:→ leefengynh: 要趕快商業化賣錢的話 車廠不可能純視覺 03/19 13:36
293F:→ leefengynh: 這裡的人都講一堆奇怪跟現實世界完全反過來的話 03/19 13:37
294F:噓 leefengynh: 那種平常沒在研究自駕議題 看到ptt人家在討論就湊過 03/19 13:41
沒在研究是你覺得沒在研究....
295F:→ leefengynh: 來 講一堆常識以外的笑話 03/19 13:41
296F:→ leefengynh: 真的快笑死 03/19 13:41
297F:→ leefengynh: 純視覺才不是低成本 03/19 13:41
298F:→ leefengynh: 純視覺等於你的軟體研發期會拉的更長 03/19 13:41
299F:→ leefengynh: 因為硬體少 你就必須用軟體補足硬體 03/19 13:41
300F:→ leefengynh: 軟體研發會拉得很長 03/19 13:41
301F:→ leefengynh: 用光達建立高清地圖才是最快商業化的途徑 03/19 13:41
302F:→ leefengynh: 市面上包含中國全部都是走光達模式 03/19 13:42
303F:→ leefengynh: 只有特斯拉是純視覺 03/19 13:42
304F:→ leefengynh: 但是waymo 中國自駕到頭來都沒比較強 03/19 13:42
你把LiDar當成只能搭配高清地圖當成一個Solution很奇怪
305F:→ leefengynh: 人眼的構造 攝影機比不上?? 03/19 13:46
306F:→ leefengynh: 黑人問號 03/19 13:46
307F:→ leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
308F:→ leefengynh: 人眼完全看不到 03/19 13:46
309F:→ leefengynh: 你說人眼比較強xddd? 03/19 13:47
310F:→ leefengynh: 然後你這文組硬體代工腦 03/19 13:47
311F:→ leefengynh: 怎麼一直把重點放在「眼睛」「攝影機」這種硬體 03/19 13:47
312F:→ leefengynh: 重點明明就是軟體 03/19 13:47
313F:→ leefengynh: 明明就是「人類大腦」 「ai演算法」 03/19 13:47
314F:→ leefengynh: 人眼視覺沒這麼強 03/19 13:47
315F:→ leefengynh: 人類會開車是因為我們的大腦 從來不是因為我們的視覺 03/19 13:47
316F:→ leefengynh: 有多強 03/19 13:47
317F:→ leefengynh: 真的笑死 硬體腦 03/19 13:47
318F:→ leefengynh: 你們這種外行人 03/19 13:52
319F:→ leefengynh: 到最後就是淪為意識形態 03/19 13:52
320F:→ leefengynh: 你的意識形態就是幻想「多傳感器一定棒」 03/19 13:53
321F:→ leefengynh: 最簡單破解的辦法 03/19 13:53
322F:→ leefengynh: 就是叫你們這種外行人舉出市面上實際已經在行駛的自 03/19 13:53
323F:→ leefengynh: 駕系統 採用光達 有無贏純視覺 03/19 13:53
324F:→ leefengynh: 這樣最簡單 03/19 13:53
325F:→ leefengynh: 講理論你根本聽不懂 03/19 13:54
326F:→ leefengynh: 講半天舉不出個屁 03/19 13:54
327F:→ leefengynh: 中國光達成本都降多低了 03/19 13:54
328F:→ leefengynh: 中國自駕玩光達都玩多久了 03/19 13:54
329F:→ leefengynh: 哪家超越特拉斯fsd? 03/19 13:54
330F:→ leefengynh: waymo搞的時間比中國更久 03/19 13:54
331F:→ leefengynh: 怎麼只有700台 安全性 接管率怎麼無法在變更強xddd 03/19 13:54
332F:→ leefengynh: 人眼比攝影機強 ?笑死 03/19 13:56
333F:→ leefengynh: 這就是曲博看太多的後遺症 03/19 13:56
334F:→ leefengynh: 你以為你看過的東西 我會沒看過xddd 03/19 13:56
335F:→ leefengynh: 別人隨便講一句 你照抄不思考 就是準備被打臉 03/19 13:58
其實你說的曲博是誰我根本不知道 Tesla無法使用LiDar很簡單,ML是需要大量的訓練 你今天多一個LiDar他的訓練幾乎要打掉重來,自動駕駛就是依靠大量訓練 但你多一個不同形式的資訊放進來幾乎是要打掉重來了 Tesla在早期就訂下目標,走最低成本的純視覺 並不代表LiDar+視覺 solution不存在而且不會更好 事實上Fusion一直是突破Lv3的唯一解答 ※ 編輯: zzahoward (136.226.240.114 臺灣), 03/19/2025 14:06:29
336F:噓 leefengynh: [新聞]NVIDIA搶攻自駕車市場!推模組化設計平台, 03/19 14:04
337F:→ leefengynh: 賓士、通用汽車都成客戶 03/19 14:05
338F:→ leefengynh: 2021.11.11 03/19 14:05
339F:→ leefengynh: 所以你口中「老黃的車」 03/19 14:05
340F:→ leefengynh: 2021年就開始合作了 03/19 14:05
341F:→ leefengynh: 現在市面上看到什麼產品了? 03/19 14:05
342F:→ leefengynh: 賓士自駕在哪? 03/19 14:05
343F:→ leefengynh: 通用自駕在哪? 03/19 14:05
344F:→ leefengynh: 喔 03/19 14:05
345F:→ leefengynh: 通用的自駕 cruise已經撞死人退出市場了 03/19 14:06
346F:→ leefengynh: 通用汽車已經放棄自駕研發了 03/19 14:06
347F:→ leefengynh: 這就是你的大絕招「老黃的車」 03/19 14:06
348F:→ leefengynh: 原來通用就是和老黃合作 03/19 14:06
349F:→ leefengynh: 然後現在放棄不玩了xddd 03/19 14:06
350F:推 kazami: 光你講視覺+雷達是訓練不出好結果就知道你是文組了 邏輯上 03/19 14:06
351F:→ kazami: 做不出來是最難證明的 會講這種話就知道邏輯能力不怎麼樣 03/19 14:07
352F:→ leefengynh: [新聞]通用不玩了!重組Cruise 退出機器人計程車市 03/19 14:07
353F:→ leefengynh: 場僅剩特斯拉、Waymo兩強爭霸 03/19 14:07
354F:→ kazami: 你沒做過你怎麼知道做不出來 特只是因為現有模型加入lidar 03/19 14:08
355F:推 StarburyX: 你們都討論錯方向了吧... 03/19 14:08
356F:→ kazami: 會影響結果, 不代表他們如果願意花時間重新做一樣做不出來 03/19 14:09
357F:噓 haotim2009: 特黑水準只有這樣嗎...AP跟FSD都搞不懂就別來亂了吧 03/19 14:09
358F:→ StarburyX: FSD端到端 就沒有光達啊... 03/19 14:09
359F:→ leefengynh: 特斯拉已經做過「雷達+視覺」 特斯拉做出來的效果 比 03/19 14:09
360F:→ leefengynh: 純視覺差 03/19 14:09
361F:→ leefengynh: 所以才關閉所有舊車上的雷達 03/19 14:09
362F:→ leefengynh: 這不就是證明了 03/19 14:09
363F:→ StarburyX: AP才有視覺融化 雷達光達之類的可以討論 03/19 14:09
364F:→ leefengynh: 你的邏輯真的要加強 03/19 14:10
365F:→ StarburyX: Tesla當初關閉雷達是因為押寶純視覺 03/19 14:10
366F:→ leefengynh: 雷達和光達都分不清楚的文組 03/19 14:11
367F:→ leefengynh: 最基本的智慧家庭先去玩玩了解一下傳感器 不要只會在 03/19 14:11
368F:→ leefengynh: 電腦前面幻想 03/19 14:11
369F:→ StarburyX: 跟FSD端到端沒什麼關係 03/19 14:11
370F:→ kazami: 你可能不知道有時候模型要重新設計吧 如果搞到重新設計就 03/19 14:11
371F:→ leefengynh: tesla關閉雷達 是因為「雷達+視覺」訓練出來輸給「純 03/19 14:11
372F:→ leefengynh: 視覺」 不是押寶 03/19 14:11
373F:→ kazami: 是重頭來過 是特不願意花那成本改善那可能只有1%的狀況 還 03/19 14:12
374F:→ leefengynh: 端到端是2024年的事情了 03/19 14:12
375F:→ kazami: 是他"能力"上做不出來 這是兩回事 03/19 14:12
376F:→ leefengynh: 在2020以前特斯拉就已經發現「多傳感器和視覺融合」 03/19 14:13
377F:推 chandler0227: https://www.nuscenes.org/ 主流還是多種類型感測器 03/19 14:13
378F:→ leefengynh: 模型會歪掉 03/19 14:13
379F:→ leefengynh: 特斯拉2020左右就有先用「多傳感器」內部訓練發現不 03/19 14:14
380F:→ leefengynh: 行 03/19 14:14
381F:→ leefengynh: 2024才用全視覺端到端訓練 03/19 14:14
382F:→ kazami: 會歪掉本來就很正常好嘛 AI有部分論文就是一直有新的架構 03/19 14:15
383F:→ kazami: 很多都是因為會歪掉 達不到好的結果 03/19 14:16
384F:→ leefengynh: 最簡單的就是請你們這群文組韭菜去找出任何一家多傳 03/19 14:16
385F:推 chandler0227: 去看CVPR 2025 依舊各種感測器類型都有,說純視覺不 03/19 14:16
386F:→ leefengynh: 感器的自駕影片來證明贏過fsd 03/19 14:16
387F:→ leefengynh: 找不出來 就代表地球上還不存在多傳感器贏過純視覺 03/19 14:16
388F:→ leefengynh: 這不就最簡單 03/19 14:16
389F:→ leefengynh: 你們在那意識形態 可以改變現實嗎 03/19 14:16
390F:→ chandler0227: 曉得活在哪個平行世界 03/19 14:16
391F:推 kazami: 算了 不可與夏蟲語冰 你繼續活在你的世界吧 反正看起來特 03/19 14:18
392F:推 chandler0227: Tesla先做到不需配置安全駕駛員吧 03/19 14:18
393F:→ kazami: 還沒止跌 你加油 繼續戰 881 03/19 14:18
394F:→ leefengynh: 意識形態就跟統獨一樣 講再多都沒用 03/19 14:19
395F:→ leefengynh: 請你去po出多傳感器的自駕行車影片 03/19 14:19
396F:→ leefengynh: 能贏過特斯拉的fsd 03/19 14:19
397F:→ leefengynh: 中國那一票已經全輸了 03/19 14:19
398F:→ leefengynh: (城市+山路+非道路場域)三種地形 03/19 14:19
399F:→ leefengynh: 給你時間去yt找吧 03/19 14:19
400F:→ leefengynh: 找到我給你獎金100萬 03/19 14:19
401F:→ leefengynh: 沒找到就不要在這邊廢話 03/19 14:19
402F:→ leefengynh: 很吵xddd 03/19 14:19
403F:推 chandler0227: 所以你判斷依據是根據YT影片而不是IEEE的CVPR... 03/19 14:21
404F:→ leefengynh: 這個id我以後見一次就會問他一次「老黃的車」在哪 不 03/19 14:21
405F:→ leefengynh: 是說老黃的車都有了 03/19 14:21
406F:→ leefengynh: 那在哪 落地了嗎xddd 03/19 14:22
407F:→ leefengynh: 絕對被我問到3年內連一個實際的屁產品都沒有落地xddd 03/19 14:22
408F:→ leefengynh: dd 03/19 14:22
409F:→ zzahoward: 感覺你根本不懂ML阿.... 03/19 14:24
410F:→ leefengynh: 你們文組韭菜意識形態 03/19 14:24
411F:→ leefengynh: 跟你們講理論已經沒用 03/19 14:24
412F:→ leefengynh: 現在就是講實際落地的產品 03/19 14:25
413F:→ leefengynh: 如果多傳感器真的是王道 03/19 14:25
414F:→ leefengynh: 那一定會有廠商把它做成產品落地 03/19 14:25
415F:→ leefengynh: 直接舉那個產品出來 03/19 14:25
416F:→ leefengynh: 不過我告訴你 可能30年內你們都拿不出來 03/19 14:25
417F:→ leefengynh: 一群韭菜xdd 03/19 14:25
418F:→ leefengynh: 明明就一群外行魯蛇 03/19 14:26
419F:→ leefengynh: 通用和賓士2021就跟nvidia合作了 03/19 14:29
420F:→ leefengynh: 自駕到現在連個屁都沒看到xddd 03/19 14:29
421F:→ leefengynh: 通用還退出研發了 03/19 14:29
422F:→ leefengynh: 真的快笑死 03/19 14:29
423F:→ leefengynh: 你的老黃自駕車快拿出來已落地的產品 03/19 14:29
424F:→ leefengynh: 我還在等耶 03/19 14:29
425F:→ zzahoward: 你講話有點太嗆了 目前還沒落地不代表2026年不會出現 03/19 14:30
426F:→ zzahoward: 已經有很多家在用老黃的平台訓練了 但需要點時間 03/19 14:30
427F:→ zzahoward: 事實上你看NHTSA當初的裁決 Tesla自己幾乎承認沒LiDar 03/19 14:32
428F:→ zzahoward: 無法達標 03/19 14:32
429F:推 StarburyX: Howard大說的也是沒錯 03/19 14:48
430F:→ StarburyX: 不過看業界訪問 03/19 14:48
431F:→ StarburyX: 老黃的顯卡模擬資料 只能拿來驗證 03/19 14:49
432F:→ StarburyX: 無法拿來訓練 03/19 14:49
433F:→ StarburyX: 要玩自駕 還是要有真實資料 03/19 14:49
434F:→ StarburyX: 玩自駕都還是會用NV的卡 包含Tesla沒錯 03/19 14:50
435F:→ StarburyX: 另外說一句E2E就沒有光達的位置 03/19 14:51
436F:→ StarburyX: 還會用到光達 就不是真E2E 03/19 14:52
437F:→ StarburyX: Howerd大 還是用傳統範式理解自駕 03/19 14:53
438F:→ StarburyX: FSD的技術是E2E 沒有融合問題也無法 03/19 14:54
439F:→ zzahoward: 為什麼LiDar就不算E2E? 是高經地圖才不算E2E吧? 03/19 14:55
440F:推 StarburyX: 光達是拿來感知的,很好的工具 03/19 14:57
441F:→ StarburyX: 感知後 還是要接決策,就是走傳統範式了 03/19 14:58
442F:→ zzahoward: LiDar和攝影機的資訊從ML來看都是輸入資訊的接收器 03/19 14:58
443F:噓 zxcv800530: 亂講一通 03/19 14:58
444F:→ zzahoward: 沒阿 為什麼LiDar不能直接進ML? 03/19 14:58
445F:→ zzahoward: 你說的傳統範式是在模型本身沒把LiDar輸入考慮進去 03/19 15:00
446F:→ zzahoward: 然後用LiDar資訊當冗餘 但為什麼不能都用呢? 03/19 15:00
447F:→ zzahoward: LiDar還可以透過軟體做慮波 這樣不是更完整嗎? 03/19 15:00
448F:推 StarburyX: 只能說目前技術沒到吧(?) 03/19 15:01
449F:推 zyx12320: 可以啊,但多傳感器融合要聽誰的?你認為的冗余不是真 03/19 15:01
450F:→ zzahoward: 是還沒學習夠 畢竟LiDar+純視覺訓練不過是這兩三年 03/19 15:01
451F:→ zyx12320: 正的冗余,目前就還沒人解決 03/19 15:01
452F:→ zyx12320: 實測表現也沒人追得上特斯拉 03/19 15:02
453F:→ StarburyX: Howard大提的技術也許很快就可以work了 03/19 15:02
454F:→ StarburyX: 特斯拉就怕新範式出現,FSD就完了 03/19 15:03
455F:→ zyx12320: https://i.imgur.com/5Li0rRj.png 03/19 15:03
456F:→ StarburyX: 現在特斯拉Work的E2E就沒有光達 03/19 15:03
457F:→ zyx12320: https://i.imgur.com/SaiwYyo.png 03/19 15:04
458F:→ StarburyX: TESLA只怕兩件事 1.出現新範式 03/19 15:05
459F:→ StarburyX: 2. Scaling law失效 03/19 15:05
460F:→ StarburyX: 講到這邊跑題了 笑 03/19 15:05
461F:→ zyx12320: 沒跑題吧,不然這邊的專家講了N年都是同一套 03/19 15:06
462F:→ StarburyX: rober標題寫FSD內容測AP就站不住腳 03/19 15:06
463F:→ StarburyX: AP還是傳統範式 FSD是E2E 完全不同 03/19 15:07
464F:→ zyx12320: 我都懶得討論rober,中國人2020用爛的手法2025還在用 03/19 15:08
465F:→ StarburyX: ZXY大貼的東西 沒錯 03/19 15:08
466F:→ StarburyX: 而且rober真的要跟中國媒體學一下 03/19 15:09
467F:→ StarburyX: 這種影片太直白 被罵到Lumina都縮了 03/19 15:10
468F:噓 d4015394: 怎看到有低端說中國都是靠純視覺 03/19 15:17
469F:→ d4015394: 這個低端不知道純視覺對演算法的技術要求是最高, 03/19 15:17
470F:→ d4015394: 護城河是最高的嗎 03/19 15:17
471F:→ d4015394: 既然如此中國廉價自駕哪有可能靠純視覺 03/19 15:17
472F:→ d4015394: 不都靠光達作弊嗎 03/19 15:17
473F:→ d4015394: 然後可笑的是靠光達作弊後 03/19 15:17
474F:→ d4015394: 自駕能力還比人家純視覺低 03/19 15:17
475F:→ d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
476F:→ d4015394: 你家還是在用30年前的監視器嗎 03/19 15:18
477F:→ d4015394: 現在隨便一個2000元的監視器都比人眼強,你黑暗中看不 03/19 15:18
478F:→ d4015394: 到的,他都看得到 03/19 15:18
479F:→ d4015394: 特斯拉8隻攝像頭,不叫做超感官? 03/19 15:18
480F:→ d4015394: 什麼文組認知 03/19 15:18
481F:→ d4015394: 你的眼睛有8顆? 03/19 15:18
482F:→ d4015394: 攝像頭裡面的cmos還可以靠抓電子數去讀每個噪點的光子 03/19 15:21
483F:→ d4015394: 顆粒數量 03/19 15:21
484F:→ d4015394: 你的眼睛可以讀取到空間中有幾顆光子? 03/19 15:21
485F:→ d4015394: 第一次聽到攝像頭不超感官的 03/19 15:21
486F:→ d4015394: 文組真多 03/19 15:21
487F:→ zzahoward: 不 人眼確實在很多方面比攝影機強 光是轉動速度就是很 03/19 15:30
488F:→ zzahoward: 驚人的創造 雖然只有中心超高解析 但透過大腦可以達到 03/19 15:31
489F:→ carryton: 樓上蔚來、小鵬都有開發純視覺 03/19 15:31
490F:→ carryton: 蔚來還自己開發AI晶片 03/19 15:31
491F:→ carryton: 整天把低端掛嘴邊不如多看一點資訊 03/19 15:31
492F:→ zzahoward: 寬闊的視野 整個機構的旋轉甚至還配合了頸部肌肉以及內 03/19 15:32
493F:→ zzahoward: 耳 03/19 15:32
494F:→ zzahoward: 假如人眼那麼弱 就不會天天追求更高的解析度了 03/19 15:33
495F:→ zzahoward: Fusion的對演算法的要求其實更高... 03/19 15:35
496F:→ zzahoward: 整體來說 我還是覺得純視覺是推進自動駕駛主力 但是否 03/19 15:37
497F:→ zzahoward: 只靠純視覺就能達成 我反而覺得有待討論 03/19 15:38
498F:→ zzahoward: 以前很多人認為RL不可能成功所以都只用RLHF 但就是被突 03/19 15:39
499F:→ zzahoward: 破了 03/19 15:39
500F:噓 d4015394: 近視100 200度的人都可以裸眼開車了啦 什麼人眼高解析 03/19 15:39
501F:→ d4015394: 度 03/19 15:39
502F:推 StarburyX: 用fusion處理感知 那接下來就是決策模塊 03/19 15:40
503F:→ StarburyX: 決策模塊就是一大堆rule base的東西 03/19 15:40
504F:→ d4015394: 你以為每個開車的眼睛都很健康1.0喔? 03/19 15:41
505F:→ d4015394: 我家人黃斑部病變 視力只有0.2都能在白天開車了 少胡說 03/19 15:41
506F:→ d4015394: 八道 03/19 15:41
507F:推 joiedevivre: 真的別浪費時間嘗試教育失去理性的狂粉 沒有意義 03/19 15:41
508F:→ StarburyX: 純視覺 也是同樣的問題 要寫rule 03/19 15:41
509F:→ joiedevivre: 他說話不體面 就去置底文幫他體面 03/19 15:41
510F:→ d4015394: 更不用講fsd又不是讀圖像 03/19 15:41
511F:→ StarburyX: 特斯拉AP AEB 停車輔助 跟召喚都是傳統範式 03/19 15:41
512F:→ d4015394: 而是讀光子顆粒數量 03/19 15:42
513F:→ StarburyX: 傳統範式就是要寫一堆rule 03/19 15:42
514F:→ zzahoward: 其實Fusion不同的傳感資訊進入真的要寫Rules嗎? 不能直 03/19 15:42
515F:→ zzahoward: 接訓練? 03/19 15:43
516F:→ StarburyX: AP AEB EAP 召喚停車輔助都是純視覺 03/19 15:43
517F:→ d4015394: 現在我們看不到遠處的招牌字 03/19 15:43
518F:→ joiedevivre: end to end就是不要rule的嘗試 其實一直都有人做 03/19 15:43
519F:→ zzahoward: d401我討論的是人眼天生的機構 你拿黃光病變.... 03/19 15:43
520F:→ d4015394: 都要用手機相機去拍下來放大了 03/19 15:43
521F:→ joiedevivre: 但特斯拉做了 讓很多粉絲第一次認識到這個 開始狂吹 03/19 15:43
522F:→ d4015394: 來輔助人眼了 03/19 15:43
523F:→ d4015394: 到底在胡說八道什麼 03/19 15:43
524F:推 zyx12320: Howard大其實我貼的圖已經回答你的問題了 03/19 15:44
525F:→ zzahoward: 黃斑病變* 03/19 15:44
526F:→ StarburyX: 訓練出來的感知模塊資料 就是要走決策 03/19 15:44
527F:→ d4015394: 一直插我話,是怕被我電爆嗎 03/19 15:44
528F:→ StarburyX: 問題就是決策模塊太多rule了 03/19 15:45
529F:→ zzahoward: zyx我有看你貼的 但那是用Tesla既有的模型下去解讀? 03/19 15:45
530F:→ zzahoward: 那是你分別對兩種傳感器去training 但假如同時呢? 03/19 15:46
531F:→ d4015394: 人類近視就能裸眼開車了 03/19 15:48
532F:→ d4015394: 跟我說要開車的必要條件是高解析鏡頭 03/19 15:48
533F:→ d4015394: 真的被你這文組打敗 03/19 15:48
534F:→ d4015394: 看不到遠處招牌字,先用iphone相機拍下來再放大zoom in 03/19 15:48
535F:推 StarburyX: 就算你有再好的融合算法,還是繞不過決策模塊 03/19 15:48
536F:→ d4015394: ,可以幫助自己看到極遠處的字 03/19 15:48
537F:→ d4015394: 然後你跟我說人眼比鏡頭強 03/19 15:48
538F:→ d4015394: 這點快被你這文組打敗 03/19 15:48
539F:推 leutk: 我以為追求更高解析度不就賣商品的行銷方式嗎 03/19 15:49
540F:→ leutk: 就跟音質一樣 很多人就是看不出來跟聽不出來 03/19 15:49
541F:→ d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
542F:→ d4015394: 來,再放大來看 03/19 15:50
543F:→ d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
544F:→ leutk: 然後當然不會有人承認啦 這樣會顯得自己低能 03/19 15:50
545F:→ d4015394: 真的快笑死 03/19 15:50
546F:→ d4015394: 光達會讓解析度變高嗎 03/19 15:51
547F:→ d4015394: 會以為人眼超越鏡頭本身就腦子要保養 03/19 15:51
548F:推 zyx12320: 融合算法就是指同時訓練了啊,目前看來單模型也是正解 03/19 15:52
549F:→ zyx12320: 理想也剛放棄所謂的雙系統,改成單ㄧ模型了 03/19 15:52
550F:→ zyx12320: Rule-based 注定失敗就不討論了,看waymo十幾年的牛步 03/19 15:52
551F:推 leefengynh: 光達派就廢得可以 幾乎都不討論演算法 03/19 15:54
552F:→ zyx12320: 多傳感器+rule bas算是自駕濫觴,但也是一個詛咒 03/19 15:55
553F:→ leefengynh: 表示這群人基本上覺得演算法不是重點XDDD 03/19 15:55
554F:→ leefengynh: 覺得每台車都裝上光達後 全自駕就達到了 神經病 03/19 15:55
555F:→ leefengynh: 就好像你買得的到EUV 2奈米就自動生出來了 03/19 15:55
556F:→ leefengynh: 人眼比鏡頭強這種常識就不用教了 03/19 15:56
557F:→ leefengynh: 人眼除了解析度能贏過鏡頭 其他全輸 03/19 15:57
558F:→ leefengynh: 開車需要的並不是無限堆解析度 解析度達到基本門檻即 03/19 15:57
559F:→ leefengynh: 可 03/19 15:57
560F:→ leefengynh: 人眼如果硬要用解析度的概念 比4K影片還高 03/19 15:58
561F:→ leefengynh: 甚至8K的影片也達不到人眼的解析度 03/19 15:58
562F:→ leefengynh: 問題人眼缺乏高度遠視能力 高度近視能力 夜視能力 03/19 16:00
563F:→ leefengynh: 所以人在看遠處字體 看不清楚 才需要借助解析度比自己 03/19 16:00
564F:→ leefengynh: 差的手機鏡頭去拍攝讀取 03/19 16:01
565F:→ leefengynh: 夜晚看不到才需要借助鏡頭夜視功能 03/19 16:01
566F:→ leefengynh: 然後人眼的高解析度只有在1.0的視力 並且投影在黃斑部 03/19 16:02
567F:→ leefengynh: 的那個角度 才會達到8k影片也達不到的解析度 03/19 16:03
568F:→ leefengynh: 也就一個角度 現實狀況下 人眼根本無法跟鏡頭比 03/19 16:03
569F:→ leefengynh: 真正能讓人類開車的 根本不是視力 視力只要有基本門檻 03/19 16:05
570F:→ leefengynh: 主要是人類的大腦 對於場景的理解跟解析 03/19 16:05
571F:→ leefengynh: 攝影機的綜合能力本身就超越人眼了 03/19 16:06
572F:→ leefengynh: 在搭配優秀的演算法 開車要比人類安全10倍以上是基本 03/19 16:07
573F:→ leefengynh: rule based 會有最基本的幽靈煞車 幾乎每家都解決不了 03/19 16:08
574F:噓 d4015394: 會以為人眼超越鏡頭本身就腦子要保養 03/19 16:10
575F:→ d4015394: 還扯什麼頸部,你轉頭是可以看到側後的車身 03/19 16:10
576F:→ d4015394: 講得光達可以無視天氣一樣 03/19 16:13
577F:→ d4015394: 鏡頭不能開的光達一樣死,還多了誤判 03/19 16:13
578F:→ d4015394: 把緻密的雨滴判斷成障礙物 03/19 16:13
579F:推 spinnerl: 你以為鏡頭靠自己晚上就看得到? 03/19 16:24
580F:→ spinnerl: 不靠NIR LED也是一片黑啦 03/19 16:24
581F:→ zzahoward: 其實我不太懂為什麼兩種感測器就一定要Rule Base 03/19 16:25
582F:→ zzahoward: 權重不就是Training的目的性嗎?y 03/19 16:26
583F:推 kira925: 只有他知道的世界吧 03/19 16:26
584F:推 spinnerl: LiDAR是可以用SWIR波段的 03/19 16:27
585F:→ spinnerl: SWIR雲霧的穿透力比可見光波段好 03/19 16:28
586F:噓 d4015394: 特斯拉在暴風雪全霧氣,全黑暗只開車燈的行車紀錄一堆 03/19 16:29
587F:→ d4015394: ,腦子都沒在看? 03/19 16:29
588F:→ spinnerl: 在SWIR波段太陽光干擾也少 03/19 16:29
589F:→ d4015394: 兩種感測器跑E2E跑出來的結果就是不如純鏡頭,這個特斯 03/19 16:32
590F:→ d4015394: 拉用過毫米波雷達和鏡頭訓練過了,訓練出來的權重就是 03/19 16:32
591F:→ d4015394: 不比純視覺。 03/19 16:32
592F:→ d4015394: 但E2E是黑盒,無法解釋為什麼會不如,只能接受結果 03/19 16:32
593F:→ d4015394: 這東西前面有人講了,你還不懂,在這邊搞笑 03/19 16:32
594F:→ zzahoward: LiDar也可以透過軟體加大功率和抑制雜訊 03/19 16:32
595F:推 kira925: 有的時候我都會好奇 哪來這麼多帳號專門來吵架的 03/19 16:33
596F:→ d4015394: 不如特斯拉舊車用雷達是幹嘛的,你以為是安裝好玩的? 03/19 16:33
597F:→ d4015394: lol 03/19 16:33
598F:→ zzahoward: 其實Elon從沒說過反對兩種感測器... 03/19 16:35
599F:推 leefengynh: 沒反對過 所以2020年以前的特斯拉二手車都有雷達啊 03/19 16:36
600F:→ leefengynh: 只是雷達和鏡頭一起訓練表現結果就不好 03/19 16:37
601F:→ leefengynh: 不尊重這個科學事實 一直盧不知道幹嘛 03/19 16:37
602F:→ zzahoward: 不 他只是認為LiDar不是他想要的解析等級 03/19 16:38
603F:→ leefengynh: 走純視覺就是因為事實是這樣 而不是特斯拉天生挺純視 03/19 16:38
604F:→ leefengynh: 覺 03/19 16:38
605F:→ leefengynh: 而是事實顯示非視覺感測+視覺 訓練出來的權重表現結果 03/19 16:39
606F:→ leefengynh: 就是比純鏡頭還差 03/19 16:39
607F:→ leefengynh: 而端到端是黑盒子 無法解釋為什麼多一個感測結果會不 03/19 16:40
608F:→ leefengynh: 不如純鏡頭 03/19 16:40
609F:→ leefengynh: 就像你也無法理解正傑為什麼要去捷運站砍人 03/19 16:40
610F:→ leefengynh: 你唯一能做的就是把正傑消滅掉 03/19 16:40
611F:→ leefengynh: 所以既然雷達和鏡頭一起訓練出來的ai 表現很差 03/19 16:41
612F:→ zzahoward: 有LiDar+Pure vision vs. Pure Vision論文嗎? 03/19 16:41
613F:→ leefengynh: 你也無法解釋為什麼 你能做的就是廢除這種混合體 03/19 16:41
614F:→ leefengynh: 改成純鏡頭訓練 03/19 16:42
615F:推 zyx12320: 現在連特斯拉都在藏了,只能用產品力評論 03/19 16:42
616F:→ zzahoward: 成果不好總是要有論文 或是模擬比較? 03/19 16:43
617F:→ zyx12320: 其實我貼的圖就是精華了,有空可以再聽這討論 03/19 16:44
618F:→ zyx12320: https://youtu.be/fvpMeIM7BK4?si=RpinvERVPS_U1bCo 03/19 16:44
619F:推 leefengynh: 特斯拉早在去年開始的ai day就不公開他們自駕思路了 03/19 16:48
620F:→ leefengynh: v11版本之前還全部開源 進入v12就開始藏招了 03/19 16:48
621F:噓 nrsair: 視力有問題去治療不要在路上開車害人 03/19 16:49
622F:→ leefengynh: v11版本的fsd 我那時候看就是不行 還不成熟 03/19 16:49
623F:→ leefengynh: 進入v12 自駕開始有質的飛躍 然後ai day也不講了 03/19 16:50
624F:→ leefengynh: 華為在我來看就是把特斯拉v11 做到極致 03/19 16:51
625F:→ leefengynh: 特斯拉顯然v11做到一半 轉技術路線 直接跳v12 03/19 16:51
626F:→ leefengynh: 如果華為智駕 vs 特斯拉v11 那華為會贏 03/19 16:52
627F:→ leefengynh: 因為特斯拉就半途放棄 直接轉技術路線了 03/19 16:52
628F:→ leefengynh: v12以後 華為的v11就算寫的在極致 和v12看起來就是有 03/19 16:53
629F:→ leefengynh: 代差 完全不是一個世代的東西 03/19 16:53
630F:→ leefengynh: 更不用講v13又是v12的100倍強 03/19 16:54
631F:→ leefengynh: 真正會用在無人出租車的應該會是v14版本 03/19 16:58
632F:→ leefengynh: 這個版本會開始增加ai的長期記憶 03/19 16:58
633F:→ leefengynh: 長期記憶才是人類開車的安全冗餘 03/19 16:58
634F:→ leefengynh: 目前的自駕基本上缺乏這塊 03/19 16:59
635F:→ leefengynh: 人類在熟悉的道路 對汽車安全的掌握是不熟悉道路的10 03/19 16:59
636F:→ leefengynh: 倍以上 03/19 16:59
637F:→ leefengynh: 基本上v14以後就是要做到ai能把開過的路細節都記下 03/19 17:00
638F:→ leefengynh: 而ai因為有幾百萬輛車 所以開過的里程會遠高於單人類 03/19 17:01
639F:→ sharku: 推 lee 觀念正確 03/19 18:41
640F:推 APC: 天眼通 xDD 03/19 18:54
641F:推 kkittles: 看過一些中國FSD評測,同樣路線第一次走錯介入修正之後 03/19 19:09
642F:→ kkittles: 第二次再走就走對了,可能真的有長期記憶的功能了 03/19 19:09
643F:推 water6: 老黃做的是晶片跟訓練平台… 03/20 00:09
644F:推 chandler0227: camera radar fusion的E2E也是不少人在做 03/20 08:04
645F:→ chandler0227: 去找CVPR 2025錄取論文 各式感測器、感知、決策都有 03/20 08:05
646F:→ chandler0227: 被某些活在平行世界的講成只有純視覺+E2E才是唯一解 03/20 08:07
647F:推 StarburyX: 錢大 現實是現在每個人都想做啊 但是成品拿不出來 03/20 08:43
648F:→ StarburyX: 每家都馬想做E2E 但市面上真的就沒看到~ 03/20 08:44
649F:→ StarburyX: Tesla下一版要包音訊 也不是純視覺了 03/20 08:45
650F:推 syk1104: 阿他就是撞之前還狂踩油門,都被警告了... 03/20 09:44
651F:噓 weichungBRO: 還在成本考量 都2025年了 拜託 笑死 03/20 16:19
652F:推 cccc5566: Waymo跑十年以後還是一樣的東西 03/21 03:30
653F:推 water6: 又有人用fsd測試一面假牆確定沒撞了喔 03/21 06:51
654F:→ water6: https://i.imgur.com/rNjWjyf.jpeg 03/21 06:52







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:BabyMother站內搜尋

TOP