作者zzahoward (Cheshire Cat)
看板car
标题Re: [闲聊] Tesla:LIDAR
时间Wed Mar 19 07:25:28 2025
※ 引述《leefengynh (/65G ・ 125/250K1W)》之铭言:
: 看起来是造假的
: https://imgur.com/5KHC7Ew
: https://imgur.com/RnPOd5C
: 撞车前一秒就把AP取消了 画面中汽车旁边两条蓝线消失 就代表AP已经取消了
: 目前还是找不出哪一家车厂的自动驾驶能赶上特斯拉fsd的
你说了一堆,其实你的理论根本没搞清楚状况
今天Mark Rober的实验,就是故意去制造纯视觉的障碍
他收了LiDar的赞助,就是要表现出纯视觉的限制阿
你在那边瞎扯一堆,但纯视觉物理限制还是在那边
我先问,AP的AEB功能跟FSD的资讯输入源头是不是都是摄影机?
那你怎麽觉得在同样输入源的情况,FSD能展现出与AP不同的天眼通?
还是你要说Tesla为了卖FSD没把AP的AEB能力升级到天眼通的能力?
其实很多人把LiDar拿来当所谓的自动驾驶控制设备
但根本搞错方向,LiDar只是其中一个讯号接收源而已,如同摄影机或雷达
FSD是在"摄影机"可视情况下透过类神经网路演算法达到高度自动驾驶控制
那你说FSD未来能不能整合LiDar? 废话当然可以,甚至这样组合的FSD一定更强
老实说我觉得FSD在面对一些极端环境应该就停下来或是关闭
Tesla为什麽不用LiDar? 因为成本考量阿
哪天LiDar价格下降会不会转弯也不知道
事实上,Nvidia solution就是准备纯视觉+LiDar以及各式各样感测器的混合体
当然用得起老黄产品的车厂大概也都是豪华车等级 (Mercedes/Volvo/JLR之类的)
Tesla现在走的很前面没错,但老黄纯视觉也不是吃素的
很多人看到Tesla就急急忙忙跳出来护航或跳出来嘲讽
根本没搞清楚整件事情的本质和设备
你今天换成LiDar要你去辨识路标、颜色之类也是不可能
我也承认纯视觉是迈入高阶自驾的主力,但LiDar目前看起来是完成纯自驾的最後防线
两者本质上是可以互补的
不要因为Tesla想省成本就在那边搞非A即B好吗
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 136.226.240.114 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/car/M.1742340330.A.B6F.html
※ 编辑: zzahoward (136.226.240.114 台湾), 03/19/2025 07:30:53
1F:→ Killercat: 不过这影片有问题的地方不在这里 03/19 08:34
2F:→ Killercat: 其实这是一个很好证明LiDAR能在某些情况下有用的机会 03/19 08:35
3F:→ Killercat: 但是看起来Mark Rober搞砸了 造成只能当相骂本了 03/19 08:35
4F:→ Killercat: 至於路上有多少机会碰到这种scenario我觉得反而是其次 03/19 08:36
5F:→ Killercat: 就算路上碰不到 这也是个很好的POC案例 03/19 08:37
6F:推 leefengynh: 不要不懂装懂了啦 03/19 08:43
7F:→ leefengynh: 会不会撞是由演算法决定的 03/19 08:43
8F:→ leefengynh: 人类为什麽看得出那是块板子 03/19 08:43
9F:→ leefengynh: ai就看不出来 03/19 08:43
10F:→ leefengynh: 废话一堆 03/19 08:43
11F:→ leefengynh: ai的智商是由演算决定的 03/19 08:45
12F:→ leefengynh: 而fsd就是不会撞 所以他才不敢用fsd测试 03/19 08:45
13F:→ leefengynh: 而ap也不会撞 所以他才故意关掉ap 03/19 08:45
14F:→ leefengynh: 而aeb可以事前先关闭 所以aeb才没发挥作用 03/19 08:45
15F:→ leefengynh: 整件事就是他开车自己去撞的xdddd 03/19 08:45
16F:推 tony890415: 无脑特粉会说激光雷达会干扰 03/19 08:46
17F:→ leefengynh: 要讲liadar多强 03/19 08:48
18F:→ leefengynh: 先举实际已经在路上跑的产品出来 03/19 08:48
19F:→ leefengynh: 不要自己幻想 根本还没出现在地球上的产品xdddd 03/19 08:48
20F:→ leefengynh: 事实上就是lidar的自驾车已经在路上跑的去全部不如纯 03/19 08:48
21F:→ leefengynh: 视觉 03/19 08:48
22F:→ leefengynh: 光达多强都是幻想出来的 xdxd 03/19 08:49
23F:→ leefengynh: 实际产品都生不出来 03/19 08:49
24F:→ leefengynh: 什麽nvidia说要合作做自驾车几年了 03/19 08:50
25F:推 jdkcupid: 人类看得出来因为对不规则反光的处理啊, 03/19 08:50
26F:→ leefengynh: 生出什麽屁了 03/19 08:50
27F:→ jdkcupid: 光达就是直接对反射做处理 03/19 08:50
28F:→ leefengynh: 特斯拉都已经获得加州无人计程车营运许可了 03/19 08:50
29F:→ leefengynh: 老黄的车在哪里xdddddd 03/19 08:50
30F:→ leefengynh: 人类看得出来 是因为大脑的视觉联合区解析的出来 03/19 08:51
31F:推 Killercat: er... Waymo就是LiDAR solution阿 03/19 08:52
32F:→ Killercat: 不过应该不是使用老黄的那套就是 03/19 08:52
33F:→ leefengynh: 你的大脑视觉联合区被打烂 你就算有视觉 你也判断不 03/19 08:53
34F:→ leefengynh: 出什麽鬼lol 03/19 08:53
35F:→ leefengynh: 而视觉联合区 在ai内就是所谓的演算法 03/19 08:53
36F:→ Killercat: 我倒是觉得成本不是最大障碍 障碍在於LiDAR无法像纯视 03/19 08:53
37F:推 joybarbarian: Z大我最近有去试(旧)MYP,还蛮好玩的说 03/19 08:53
38F:→ Killercat: 觉一样快速从影片中获得学习能力 03/19 08:53
39F:嘘 jinshun: 特斯拉已经公开解释好几次为何不用Lidar了 包括发表会和 03/19 08:53
40F:→ jinshun: 法说会 甚至外资论坛 和省成本没有关系 03/19 08:54
不是为了成本FSD+LiDar的Integration绝对更强啦
纯视觉很强,但就是有物理限制阿,摄影镜头终究还是平面用演算法去判断
光达可以打反射出来绘制出3D
41F:→ leefengynh: waymo出包还不够多吗 居然有人敢举waymo xddd 03/19 08:54
42F:→ leefengynh: 搞了10年全美至今才709台车 03/19 08:54
43F:→ leefengynh: 你们却不知道他满是问题lol 03/19 08:54
44F:→ Killercat: 其实我觉得说省成本的可能是跟前保杆摄影机混为一谈了 03/19 08:54
45F:→ Killercat: 那个就真的完全就是成本考量 XD 03/19 08:55
46F:→ Killercat: Waymo出包规出包 但是它的确是运营中的LiDAR Solution 03/19 08:55
47F:→ leefengynh: 这里很多草包不知道waymo很弱xddd 03/19 08:57
48F:→ leefengynh: waymo後台 人车比是1:2 03/19 08:57
49F:→ leefengynh: 用1个人在开2台车 03/19 08:57
50F:→ leefengynh: 你跟我说光达车有什麽好绩效xddd 03/19 08:57
51F:→ leefengynh: waymo的远程接管比例多高 03/19 08:57
52F:推 ppegg: 人的视觉就不包括lidar。如果是要类人驾驶靠纯视觉+演算法 03/19 08:57
53F:→ leefengynh: 需要1个人盯着2台车 03/19 08:57
54F:→ ppegg: 终究可以。多几个摄影机或lidar则可以超越人类驾驶 03/19 08:58
55F:→ Killercat: 他弱归弱 但是的确是LiDAR Solution目前最远的 而且说 03/19 08:58
56F:→ Killercat: 起来也至少要等Cybercub运营个一阵子再来比较吧 03/19 08:58
57F:→ leefengynh: waymo的安全性统计起来比全美人类司机还低 还光达勒 03/19 08:58
58F:推 ppegg: lidar不是人类的经验,很难用人协助训练吧 03/19 09:00
59F:→ leefengynh: 每40万英里就出现一次报警事故 03/19 09:00
60F:→ leefengynh: 全美人类是70万 03/19 09:00
61F:→ leefengynh: waymo搞了10年才勉强逼近40万 最近几年已经在40万停 03/19 09:00
62F:→ leefengynh: 滞不前 03/19 09:00
63F:→ leefengynh: 光达车看waymo那个死样子 极限就是那样 03/19 09:02
64F:→ leefengynh: 另外一家光达车 cruise已经退出市场了 03/19 09:02
65F:→ Killercat: 可以合理预期Cybercab表现更好啦 但是先等看看吧 03/19 09:02
66F:→ leefengynh: cruise直接辗过人 你跟我说光达好棒棒xddd? 03/19 09:03
67F:→ leefengynh: waymo 你大概没看过 载着乘客直接失控原地绕圈的新闻 03/19 09:03
68F:→ leefengynh: 需要後台用1个人类 接管2台车 03/19 09:05
69F:→ leefengynh: 而不是1个人类 管20台车 03/19 09:05
70F:→ leefengynh: 就可以知道waymo 遇到很多场景走不动需要人类解围的 03/19 09:05
71F:→ leefengynh: 比率有多高了xddd 03/19 09:05
72F:推 leefengynh: 如果waymo的自驾技术靠谱 03/19 09:10
73F:→ leefengynh: 早就几万台遍布全美了 03/19 09:10
74F:→ leefengynh: 还会搞了几百年才700台车? 03/19 09:10
75F:→ leefengynh: 全美计程车+uber+lyft有100万台 03/19 09:10
76F:→ leefengynh: 你waymo玩了10年 700台 明眼人都知道技术遇到瓶颈了 03/19 09:10
你根本搞不清楚我说的
纯视觉是高等级自动驾驶主力没问题,但LiDar可以成为最後一道防线
让车子更安全、侦测距离更远、范围更广
两者可以互补而不是只能择一
77F:→ timk7: 先等特斯拉上线有实绩再说吧,不然说谁一定强也没结果 03/19 09:13
78F:→ Killercat: er..你是老头吗 一直重覆一些大家都知道的事 =_=a? 03/19 09:13
79F:推 kira925: 就是因为只有这水准 所以他只能一直洗一样的吧 03/19 09:15
80F:推 tony890415: 真的 特斯拉的AEB数据就是不如对岸光达车 但是FSD智驾 03/19 09:16
81F:→ tony890415: 能力又比对岸光达车强 怀疑是AEB没加入AI演算 03/19 09:17
82F:→ tony890415: 因为特斯拉晚间AEB大概只能到7-80公里煞停 但是华为 03/19 09:17
83F:→ tony890415: 的可以到110 03/19 09:17
84F:→ tony890415: 很怀疑是为了卖FSD所以把AEB AP的算力阉掉了 03/19 09:29
85F:→ tony890415: 但另一个角度 有买FSD的车子在人驾时 AEB看测试也没 03/19 09:29
86F:→ tony890415: 变好 一样烂 跟传统车厂差不多 03/19 09:30
87F:→ leefengynh: 「lidar成为最後一道防线」 03/19 09:31
88F:→ leefengynh: 这就是光达派「靠感觉」所说出的一句话 03/19 09:31
89F:→ leefengynh: 事实上lidar和镜头 很常发生矛盾的情况 03/19 09:31
90F:→ leefengynh: 「矛盾传感器」是不能让你作为安全冗余使用的 03/19 09:31
91F:→ leefengynh: 一个传感器判断前面是硬物障碍物 要刹车 03/19 09:31
92F:→ leefengynh: 一个传感器判断前面是气体障碍物 要缓慢通过 03/19 09:31
93F:→ leefengynh: 请问要听谁的? 03/19 09:31
94F:→ leefengynh: 用最高标准去把它当硬物煞车 03/19 09:31
95F:→ leefengynh: 明明只是浓雾 你急煞被後车追撞吗 03/19 09:32
96F:→ leefengynh: AEB可以请关掉 03/19 09:33
97F:→ leefengynh: 那个人已经被证明造假 03/19 09:33
98F:→ leefengynh: 既然是造假仔 那合理推断就是会偷把aeb关掉 03/19 09:33
99F:→ leefengynh: aeb不是ai 03/19 09:34
100F:→ tony890415: 你去看之前的实测影片 特斯拉AEB很多场景就是没反应 03/19 09:35
101F:→ tony890415: 不然就是太晚 我自己本人也撞过 03/19 09:35
102F:→ kira925: ....可以确定某l一窍不通只会洗文了 03/19 09:35
103F:→ leefengynh: 就一直以为「光达=超感官」真的笑死 03/19 09:37
104F:→ leefengynh: 光达明明就某某些方面比人眼强 03/19 09:37
105F:→ leefengynh: 但多数方面都比人眼还废 03/19 09:37
106F:推 kira925: 航空器早就都有类似的实作 在那边洗文 03/19 09:37
107F:→ leefengynh: 你kira925先读书再来吧 连光达的缺点是什麽都不知道 03/19 09:38
108F:→ leefengynh: 就幻想超感官xddd 03/19 09:38
109F:嘘 lll156k1529: 别跟那个身分仔讲话= = 03/19 09:38
110F:→ tony890415: @l 我觉得跟光达无关 因为同样有光达的车 AEB程度还是 03/19 09:38
111F:→ tony890415: 有差 我觉得是特斯拉AEB没套好AI 03/19 09:38
112F:→ leefengynh: 航空器用雷达居多 谁跟你用光达 03/19 09:39
113F:→ kira925: 那三个字只有你在写 03/19 09:39
114F:→ tony890415: 特斯拉的AEB看起来就跟传统车厂差不多 03/19 09:39
115F:→ kira925: 你慢慢洗文 慢走不送 03/19 09:39
116F:→ leefengynh: 航空跟开车一样吗 03/19 09:40
117F:→ leefengynh: 天空又不像路面拥挤 开飞机就算都人眼都被云层挡住 03/19 09:40
118F:→ leefengynh: 也没差 03/19 09:40
119F:→ leefengynh: 讲不出个屁 人就走了 xdddd 03/19 09:41
120F:→ leefengynh: 那不如一开始就不要浮出来 03/19 09:41
121F:→ leefengynh: 航空器装光达 我听过最好笑的笑话 03/19 09:42
122F:→ leefengynh: 还是你雷达跟光达分不清楚xdd 03/19 09:42
123F:→ kira925: 冗余度跟多数决 谁跟你在那边分高低 03/19 09:43
124F:→ kira925: 光达还是雷达根本不是重点 03/19 09:43
125F:→ leefengynh: 光达 vs 纯视觉 就只剩你们这群外行人一直在争 03/19 09:45
126F:→ leefengynh: 业界都在拼演算法了 03/19 09:45
127F:→ leefengynh: 拿rule based时代的议题来争 全部是韭菜 03/19 09:45
128F:→ leefengynh: 你真的以为waymo或市面上的光达车 03/19 09:48
129F:→ leefengynh: 他们装光达 是为了冗余吗? 03/19 09:48
130F:→ leefengynh: 他们装光达 不是为了冗余耶 03/19 09:48
131F:→ leefengynh: 他们的感知层只会输出一个结果 03/19 09:48
132F:→ leefengynh: 而不是两个结果 03/19 09:48
133F:→ leefengynh: 既然只输出一个结果 哪来冗余之说 03/19 09:48
134F:→ leefengynh: 胡説八道 03/19 09:48
135F:→ leefengynh: waymo会装光达 只不过是要使用高精度地图 有了高精度 03/19 09:50
136F:→ leefengynh: 地图 03/19 09:51
137F:→ leefengynh: 那麽ai智商就不用这麽高 03/19 09:51
138F:→ leefengynh: 也就是演算法的技术门槛就比较低 03/19 09:51
139F:→ leefengynh: 可以快速商业化 03/19 09:51
140F:→ leefengynh: 哪是为了安全冗余 笑死 03/19 09:51
141F:→ ilovedirk41: 苹果手机不就有光达? 03/19 09:54
142F:→ leefengynh: 但是恶果也马上浮现 03/19 09:55
143F:→ leefengynh: 就是司机成本只能降低50% 03/19 09:55
144F:→ leefengynh: 1人管2台车 费用也比人工计程车还贵 03/19 09:55
145F:→ leefengynh: 演算法低智商 03/19 09:55
146F:→ leefengynh: 遇到一堆状况需要後台人类解围 03/19 09:55
147F:→ leefengynh: 成本降不下来 没在高精度地图覆盖区域无法驾驶 03/19 09:55
148F:→ leefengynh: xdddd 03/19 09:55
149F:→ leefengynh: 偷吃步 难怪技术遇到瓶颈 03/19 09:56
150F:→ leefengynh: 光达车就是没高精度地图覆盖的区域 连正常的转弯都没 03/19 09:57
151F:→ leefengynh: 办法xddd 03/19 09:57
152F:→ leefengynh: 这就是轨道车 不是靠车子临场去解析道路的3D结构 03/19 10:00
153F:→ leefengynh: 而是预先要输入道路3D结构给汽车 03/19 10:01
154F:→ leefengynh: 这根本危险 因为道路3D结构会一直改变 03/19 10:01
155F:→ leefengynh: 那你就要每几个礼拜重制一次地图 03/19 10:01
156F:→ leefengynh: 笑死 难怪只有700台 无法扩大到全美 03/19 10:01
157F:推 QuentinHu: 不用管特铁粉啦,焕新Y出来之前还不是讲方向灯拨杆跟 03/19 10:03
158F:→ QuentinHu: 前镜头没必要,最後自己被打脸,这些人都不会认错的 03/19 10:03
159F:→ leefengynh: 依赖高精度地图的自驾绝对不是solution 03/19 10:05
160F:→ leefengynh: 那只是轨道车 不叫自驾 03/19 10:05
161F:→ leefengynh: 几乎所有光达车都依赖预先输入高精度地图 03/19 10:05
162F:→ leefengynh: 车子临场对道路3d结构拓扑解析的能力很低 03/19 10:05
163F:→ leefengynh: 这种做法非常危险 万一遇到修路 道路结构改变 而你3 03/19 10:06
164F:→ leefengynh: d高精度地图没有即时更新 03/19 10:06
165F:→ leefengynh: 车子直接车祸 03/19 10:06
166F:→ leefengynh: 而且只能在固定区域才能自驾 xddd 03/19 10:06
167F:→ QuentinHu: 其实多感测器就是能互相补足单一感测器在某些工况底下 03/19 10:07
168F:→ QuentinHu: 的限制,理论上就是装越多越好,现在的问题是成本问题 03/19 10:07
169F:→ QuentinHu: 而已,就是这麽简单的道理。但是特铁粉不知道为什麽就 03/19 10:07
170F:→ QuentinHu: 是爱Diss特斯拉方案以外的其他东西,每个都好像是在帮 03/19 10:07
171F:→ QuentinHu: 马斯克工作一样。这些特铁粉当初还嘲笑Toyota说会变成 03/19 10:07
172F:→ leefengynh: 我没讲前镜头不重要啊 03/19 10:07
173F:→ QuentinHu: Nokia咧,每个都是差不多这样,不用跟他们争执什麽 03/19 10:07
174F:→ leefengynh: 不要故意幻想我讲的好嘛 03/19 10:07
175F:→ leefengynh: 可悲韭菜东西xddd 03/19 10:08
176F:→ leefengynh: 前镜头超香的好吗 03/19 10:08
177F:→ leefengynh: 当然不是装越多越好 03/19 10:09
178F:→ leefengynh: 这只要有在玩智慧家庭自动化的人都能理解 03/19 10:09
179F:→ leefengynh: 「同一类的传感器」越多 的确越好 03/19 10:10
180F:→ leefengynh: 「不同类的传感器」越多不一定越好 03/19 10:10
181F:→ leefengynh: 因为不同类的传感器会造成矛盾 打架 03/19 10:12
182F:→ leefengynh: 就是这麽简单 而不是互补 03/19 10:12
我以为AI演算法本来就会有一堆决策出来,然後根据分数去做决定不是吗
没道理多一个3D建模会更差
183F:推 QuentinHu: 嗯嗯我没点名谁,你不用对号入座 03/19 10:13
184F:→ leefengynh: 传感器越多越好 怎麽不去叫feijq装光达? 笑死 03/19 10:21
185F:→ leefengynh: 飞机只有雷达 没有光达好危险 不去哭哭吗xdddds 03/19 10:21
186F:→ cabin2501: 从教主 副教 现在又一个 03/19 10:23
187F:→ cabin2501: 不要理会就好 03/19 10:23
188F:→ leefengynh: 你们这群外行韭菜「靠感觉论述」到中毒了 03/19 10:23
189F:→ leefengynh: 文组脑xddd 03/19 10:24
文组脑袋? 你多一个3D建模资讯来源会让自动驾驶更差的意思?
你真的理解AI吗....
190F:嘘 carryton: 原文说AP被取消,FSD更不可能开启 03/19 10:25
191F:→ carryton: 你这篇连原文都误解根本废文一篇 03/19 10:25
那就更有问题了 当AP/FSD都被取消状态下,你的AEB判断能力大幅下降
这样可以吗?
192F:嘘 MoonCode: 03/19 10:35
193F:推 h311013: 纯视觉无法穿透迷雾的,除非用的是热成像或红外线照射, 03/19 10:58
194F:→ h311013: 特斯拉应该有装这东西吧? 03/19 10:59
195F:嘘 Arsen2017: 你才搞不清楚状况 AP和FSD都没开好吗 03/19 10:59
没开AP/FSD AEB判断能力就会掉一大截这种说法有点奇怪
196F:推 hasimofo: 在激动什麽 有光达加上相机的技术依定比只有单一技术好 03/19 11:06
197F:→ hasimofo: 这有什麽好讨论的?阿你多一项数据可以来分析咩 03/19 11:06
198F:→ hasimofo: 现在不装单纯太贵 等国产的更卷一点就可以了 03/19 11:07
199F:→ hasimofo: 飞机需不需要光达我不知道 但是没理由多了一个3D资讯源 03/19 11:08
200F:→ hasimofo: 会变更差的 楼上到底在吵啥 03/19 11:08
201F:推 kira925: 讲拢余度的意思是 飞机会有多重独立的感测器系统 03/19 11:13
202F:→ kira925: 同时作出独立决定 然後会有多数决(可能是三重不同决策) 03/19 11:13
203F:→ kira925: 而不是什麽AI怎样 rule based怎样 这是在那之前的东西 03/19 11:14
204F:→ kira925: 在那边炒光达雷达的字面吵架不知道在搞什麽... 03/19 11:14
205F:→ kira925: 写一堆情绪性文字 不知道哪来的狂粉 03/19 11:15
206F:推 hasimofo: 吕布不用AK只用方天化戟一定是因为现代武器比较烂 03/19 11:19
207F:嘘 Arsen2017: AEB是可以关的 影片都故意造假了你确定他没关? 03/19 11:51
208F:推 casper955033: 光达 + 纯视觉AI 又不冲突 03/19 11:53
209F:→ Charles0421: 特斯拉粉丝就是这样才会让人对特斯拉观感其差 03/19 11:54
210F:→ Charles0421: 一对特斯拉有疑问就人身攻击 无法正常讨论 03/19 11:54
211F:→ Charles0421: 车版不是你特粉一言堂的宣传工具 03/19 11:54
212F:→ Charles0421: 是不同意见讨论的场所 03/19 11:54
213F:推 gk1329: 现在很多扫地机器人都在用 很便宜惹啊 03/19 12:14
214F:→ Rukawa31: 意见不同就说别人 废话 屁 外行韭菜 文组脑 然後一堆x 03/19 12:20
215F:→ Rukawa31: ddd 阿这就没要讨论的意思啦 03/19 12:20
216F:→ Rukawa31: 你各位就当某人今年来吃-50%需要一个大平台泄恨 03/19 12:21
217F:嘘 moom50302: 你比特所有研发员都聪明,特不用原因根本不是成本问题 03/19 12:21
218F:→ moom50302: 特说过光达会跟现有计算造成影响,就继续脑补可以合用 03/19 12:22
因为Tesla一开始就打定主意不要Integrate LiDar solution...
老黄的就有
219F:推 kazami: 你跟这位股板跑来的新警察讲没啥用啦 现在可能正因这几个 03/19 12:37
220F:→ kazami: 月狂跌坐立不安 03/19 12:37
221F:推 seemoon2000: 只要能解决顾客需求的方案都行 顾客哪有差 03/19 12:38
222F:推 OBTea: LiDar 的判断会增加false alarm 拖累效能,其实也是省成本 03/19 12:39
223F:→ OBTea: 的一环 03/19 12:39
224F:→ OBTea: 今天这个实验就是业界内部训练举出视觉判断盲点的经典例子 03/19 12:40
225F:→ OBTea: ,7-8年前就有的东西 03/19 12:40
226F:→ dslite: 马斯克减成本的藉口被拿来当圣经喔 笑死 03/19 12:48
227F:→ leutk: 觉得依龙马没有雇用你真的太可惜了 如果有你的指导 03/19 12:49
228F:推 kazami: 以前就看过朋友的老板不知道哪要来的影像叫他加进去训练 03/19 12:50
229F:→ leutk: 特斯拉统一自驾的天下真的是指日可待 你想到它们想不到的 03/19 12:50
230F:→ kazami: 然後原本的正确度从略超过90%,骤降到6、70%,後来改参数 03/19 12:51
231F:→ kazami: 也是只能到80%左右,後来老板叫他换其他模型试试,後续我 03/19 12:52
232F:→ kazami: 就不知道怎样了,从我听到的经验,加入Lidar对现有结果产 03/19 12:52
233F:→ kazami: 生不良的影响其实相当合理 03/19 12:52
234F:→ nrsair: 光学镜头 光达 雷达 超音波 通通都做到车上 03/19 12:53
235F:→ kazami: 只看特要不要花这些成本去做而已,我朋友是因为要毕业不得 03/19 12:53
236F:→ kazami: 不做 03/19 12:53
237F:→ Killercat: 训练资料很怕冲突 你一直教他1 2 3後面会是4 突然出现 03/19 12:57
238F:→ Killercat: 几笔资料1 2 3後面接100 这样模型会变得很不稳定 03/19 12:58
239F:推 OBTea: 视觉+光学整合是在自然界中很少见的,整合进AI 就是加成本 03/19 13:05
240F:→ OBTea: 没错 03/19 13:05
241F:→ OBTea: 修正:视觉+光达 03/19 13:06
其实不能这样说,人眼的机构其实很夸张
视网膜Fovea几乎等於高解析度+gimballed autofocusing stereoscopic的传感器
目前硬体无法达到这个等级
242F:推 OBTea: 特斯拉应该不是没想过,一来这会拖慢自动驾驶开发速度,二 03/19 13:12
243F:→ OBTea: 来这情况在现实发生的机率大概一辈子都不会遇到,三来正常 03/19 13:12
244F:→ OBTea: 人类视觉判断就可以99%时间避免是故,更何况AI是集人勒视觉 03/19 13:12
245F:→ OBTea: 能力大成 03/19 13:12
246F:推 ozyamazaki: 有人从小教育就是服从 连独立思考提出质疑都不会 03/19 13:13
247F:嘘 leefengynh: 老黄的车在哪? 明明就一个外行 连老黄在卖什麽都不 03/19 13:15
248F:→ leefengynh: 知道xddd 03/19 13:16
249F:→ leefengynh: 发现现实生活中的光达车都打不赢fsd了 03/19 13:16
250F:→ leefengynh: 就幻想一个「老黄的自驾车」出来 03/19 13:16
老黄Solution =/= 老黄自驾车 我觉得你常常搞混东西
Mercedes/Volvo目前都是用老黄Solution,而Mercedes是可以拿到Lv3的
251F:→ leefengynh: 然後产品到底在哪xdddd 03/19 13:16
252F:→ leefengynh: 然後就自己生出一个一个意识形态 03/19 13:17
253F:→ leefengynh: 「传感器多一点 资讯比较多 一定好」 03/19 13:17
254F:→ leefengynh: 生成式ai 放入 光达和视觉 两者训练出来的ai就没一个 03/19 13:20
255F:→ leefengynh: 比纯视觉强 然後你在那边靠感觉 03/19 13:20
256F:推 OBTea: 资讯自然越多越好,是现在AI模型,演算法或是算力的限制才 03/19 13:20
257F:→ OBTea: 显得纯视觉是目前最佳解 03/19 13:20
258F:→ OBTea: AI也是要GPU和记忆体到位才显得有效益 03/19 13:21
259F:→ leefengynh: 早期特斯拉的车都有雷达 03/19 13:23
260F:→ leefengynh: 谁跟你「特斯拉一开始打定要纯视觉」 03/19 13:23
261F:→ leefengynh: 雷达+视觉就是无法在「生成ai架构下」训练出好的结果 03/19 13:24
262F:→ leefengynh: 特斯拉才关闭旧车上面的雷达 03/19 13:24
263F:→ leefengynh: 什麽特斯拉一开始打定纯视觉 胡说八道 03/19 13:24
264F:→ leefengynh: 特斯拉一开始是雷达+视觉 03/19 13:24
265F:→ leefengynh: 实证下来就是比纯视觉差 03/19 13:24
266F:→ leefengynh: 你去买2018年的特斯拉 哪台车没雷达 03/19 13:24
267F:→ leefengynh: 笑死 03/19 13:24
268F:推 OBTea: 特斯拉自动驾驶的确很早就走纯视觉 03/19 13:24
269F:→ OBTea: 2017-2018大概就确立方向 03/19 13:25
270F:推 orange7986: 是说关於Waymo发展慢我认为不光是技术瓶颈啦,州政府 03/19 13:27
271F:→ orange7986: 法规、市场接受度、造车成本都是发展缓慢的原因之一 03/19 13:27
272F:→ orange7986: ,但仍是市场领先者、先行者 03/19 13:27
273F:推 skizard: 从一开始就只可能sensor fusion 过L5了 03/19 13:29
274F:推 orange7986: *是指自驾计程车 03/19 13:30
275F:→ leefengynh: 现在的ai模型就不是资讯越多越好 03/19 13:30
276F:→ leefengynh: 乱喂一通模型就长的好 03/19 13:30
277F:→ leefengynh: 喂的东西 和 演算法 才是重点 03/19 13:30
278F:→ leefengynh: 模型才不会长歪 03/19 13:30
279F:→ leefengynh: 听文组脑在那边靠感觉 03/19 13:30
280F:→ leefengynh: 以为把视觉和雷达资讯都喂进去 03/19 13:30
281F:→ leefengynh: ai模型长出来的能力值就会大於只喂视觉 03/19 13:30
282F:→ leefengynh: 可是这件事一直都是你自己在幻想的 03/19 13:31
283F:→ leefengynh: 不是吗 03/19 13:31
284F:→ leefengynh: 特斯拉早期用雷达+视觉效果就不好 03/19 13:31
285F:→ leefengynh: 然後你还在幻想都拿去喂ai 会更强lol 03/19 13:31
人眼构造根本不是当代摄影机硬体可以比得上的,因此需要辅助感测器
286F:推 OBTea: 很早的时候,低成本自动驾驶解决方案很多就走纯视觉,中国 03/19 13:33
287F:→ OBTea: 也一堆在搞,所以自驾才会追得那麽快 03/19 13:33
288F:→ OBTea: 就演算法跟不上资讯量才显得纯视觉是目前最佳,这有什麽好 03/19 13:35
演算法跟得上啦 只是Tesla懒得打掉重练把LiDar放进去
289F:→ OBTea: 跳针的... 03/19 13:35
290F:推 leefengynh: 中国没半间自驾走纯视觉 03/19 13:36
291F:→ leefengynh: 纯视觉是技术最难的 03/19 13:36
292F:→ leefengynh: 要赶快商业化卖钱的话 车厂不可能纯视觉 03/19 13:36
293F:→ leefengynh: 这里的人都讲一堆奇怪跟现实世界完全反过来的话 03/19 13:37
294F:嘘 leefengynh: 那种平常没在研究自驾议题 看到ptt人家在讨论就凑过 03/19 13:41
没在研究是你觉得没在研究....
295F:→ leefengynh: 来 讲一堆常识以外的笑话 03/19 13:41
296F:→ leefengynh: 真的快笑死 03/19 13:41
297F:→ leefengynh: 纯视觉才不是低成本 03/19 13:41
298F:→ leefengynh: 纯视觉等於你的软体研发期会拉的更长 03/19 13:41
299F:→ leefengynh: 因为硬体少 你就必须用软体补足硬体 03/19 13:41
300F:→ leefengynh: 软体研发会拉得很长 03/19 13:41
301F:→ leefengynh: 用光达建立高清地图才是最快商业化的途径 03/19 13:41
302F:→ leefengynh: 市面上包含中国全部都是走光达模式 03/19 13:42
303F:→ leefengynh: 只有特斯拉是纯视觉 03/19 13:42
304F:→ leefengynh: 但是waymo 中国自驾到头来都没比较强 03/19 13:42
你把LiDar当成只能搭配高清地图当成一个Solution很奇怪
305F:→ leefengynh: 人眼的构造 摄影机比不上?? 03/19 13:46
306F:→ leefengynh: 黑人问号 03/19 13:46
307F:→ leefengynh: 我家摄影机全黑暗房间中看得一清二楚 03/19 13:46
308F:→ leefengynh: 人眼完全看不到 03/19 13:46
309F:→ leefengynh: 你说人眼比较强xddd? 03/19 13:47
310F:→ leefengynh: 然後你这文组硬体代工脑 03/19 13:47
311F:→ leefengynh: 怎麽一直把重点放在「眼睛」「摄影机」这种硬体 03/19 13:47
312F:→ leefengynh: 重点明明就是软体 03/19 13:47
313F:→ leefengynh: 明明就是「人类大脑」 「ai演算法」 03/19 13:47
314F:→ leefengynh: 人眼视觉没这麽强 03/19 13:47
315F:→ leefengynh: 人类会开车是因为我们的大脑 从来不是因为我们的视觉 03/19 13:47
316F:→ leefengynh: 有多强 03/19 13:47
317F:→ leefengynh: 真的笑死 硬体脑 03/19 13:47
318F:→ leefengynh: 你们这种外行人 03/19 13:52
319F:→ leefengynh: 到最後就是沦为意识形态 03/19 13:52
320F:→ leefengynh: 你的意识形态就是幻想「多传感器一定棒」 03/19 13:53
321F:→ leefengynh: 最简单破解的办法 03/19 13:53
322F:→ leefengynh: 就是叫你们这种外行人举出市面上实际已经在行驶的自 03/19 13:53
323F:→ leefengynh: 驾系统 采用光达 有无赢纯视觉 03/19 13:53
324F:→ leefengynh: 这样最简单 03/19 13:53
325F:→ leefengynh: 讲理论你根本听不懂 03/19 13:54
326F:→ leefengynh: 讲半天举不出个屁 03/19 13:54
327F:→ leefengynh: 中国光达成本都降多低了 03/19 13:54
328F:→ leefengynh: 中国自驾玩光达都玩多久了 03/19 13:54
329F:→ leefengynh: 哪家超越特拉斯fsd? 03/19 13:54
330F:→ leefengynh: waymo搞的时间比中国更久 03/19 13:54
331F:→ leefengynh: 怎麽只有700台 安全性 接管率怎麽无法在变更强xddd 03/19 13:54
332F:→ leefengynh: 人眼比摄影机强 ?笑死 03/19 13:56
333F:→ leefengynh: 这就是曲博看太多的後遗症 03/19 13:56
334F:→ leefengynh: 你以为你看过的东西 我会没看过xddd 03/19 13:56
335F:→ leefengynh: 别人随便讲一句 你照抄不思考 就是准备被打脸 03/19 13:58
其实你说的曲博是谁我根本不知道
Tesla无法使用LiDar很简单,ML是需要大量的训练
你今天多一个LiDar他的训练几乎要打掉重来,自动驾驶就是依靠大量训练
但你多一个不同形式的资讯放进来几乎是要打掉重来了
Tesla在早期就订下目标,走最低成本的纯视觉
并不代表LiDar+视觉 solution不存在而且不会更好
事实上Fusion一直是突破Lv3的唯一解答
※ 编辑: zzahoward (136.226.240.114 台湾), 03/19/2025 14:06:29
336F:嘘 leefengynh: [新闻]NVIDIA抢攻自驾车市场!推模组化设计平台, 03/19 14:04
337F:→ leefengynh: 宾士、通用汽车都成客户 03/19 14:05
338F:→ leefengynh: 2021.11.11 03/19 14:05
339F:→ leefengynh: 所以你口中「老黄的车」 03/19 14:05
340F:→ leefengynh: 2021年就开始合作了 03/19 14:05
341F:→ leefengynh: 现在市面上看到什麽产品了? 03/19 14:05
342F:→ leefengynh: 宾士自驾在哪? 03/19 14:05
343F:→ leefengynh: 通用自驾在哪? 03/19 14:05
344F:→ leefengynh: 喔 03/19 14:05
345F:→ leefengynh: 通用的自驾 cruise已经撞死人退出市场了 03/19 14:06
346F:→ leefengynh: 通用汽车已经放弃自驾研发了 03/19 14:06
347F:→ leefengynh: 这就是你的大绝招「老黄的车」 03/19 14:06
348F:→ leefengynh: 原来通用就是和老黄合作 03/19 14:06
349F:→ leefengynh: 然後现在放弃不玩了xddd 03/19 14:06
350F:推 kazami: 光你讲视觉+雷达是训练不出好结果就知道你是文组了 逻辑上 03/19 14:06
351F:→ kazami: 做不出来是最难证明的 会讲这种话就知道逻辑能力不怎麽样 03/19 14:07
352F:→ leefengynh: [新闻]通用不玩了!重组Cruise 退出机器人计程车市 03/19 14:07
353F:→ leefengynh: 场仅剩特斯拉、Waymo两强争霸 03/19 14:07
354F:→ kazami: 你没做过你怎麽知道做不出来 特只是因为现有模型加入lidar 03/19 14:08
355F:推 StarburyX: 你们都讨论错方向了吧... 03/19 14:08
356F:→ kazami: 会影响结果, 不代表他们如果愿意花时间重新做一样做不出来 03/19 14:09
357F:嘘 haotim2009: 特黑水准只有这样吗...AP跟FSD都搞不懂就别来乱了吧 03/19 14:09
358F:→ StarburyX: FSD端到端 就没有光达啊... 03/19 14:09
359F:→ leefengynh: 特斯拉已经做过「雷达+视觉」 特斯拉做出来的效果 比 03/19 14:09
360F:→ leefengynh: 纯视觉差 03/19 14:09
361F:→ leefengynh: 所以才关闭所有旧车上的雷达 03/19 14:09
362F:→ leefengynh: 这不就是证明了 03/19 14:09
363F:→ StarburyX: AP才有视觉融化 雷达光达之类的可以讨论 03/19 14:09
364F:→ leefengynh: 你的逻辑真的要加强 03/19 14:10
365F:→ StarburyX: Tesla当初关闭雷达是因为押宝纯视觉 03/19 14:10
366F:→ leefengynh: 雷达和光达都分不清楚的文组 03/19 14:11
367F:→ leefengynh: 最基本的智慧家庭先去玩玩了解一下传感器 不要只会在 03/19 14:11
368F:→ leefengynh: 电脑前面幻想 03/19 14:11
369F:→ StarburyX: 跟FSD端到端没什麽关系 03/19 14:11
370F:→ kazami: 你可能不知道有时候模型要重新设计吧 如果搞到重新设计就 03/19 14:11
371F:→ leefengynh: tesla关闭雷达 是因为「雷达+视觉」训练出来输给「纯 03/19 14:11
372F:→ leefengynh: 视觉」 不是押宝 03/19 14:11
373F:→ kazami: 是重头来过 是特不愿意花那成本改善那可能只有1%的状况 还 03/19 14:12
374F:→ leefengynh: 端到端是2024年的事情了 03/19 14:12
375F:→ kazami: 是他"能力"上做不出来 这是两回事 03/19 14:12
376F:→ leefengynh: 在2020以前特斯拉就已经发现「多传感器和视觉融合」 03/19 14:13
378F:→ leefengynh: 模型会歪掉 03/19 14:13
379F:→ leefengynh: 特斯拉2020左右就有先用「多传感器」内部训练发现不 03/19 14:14
380F:→ leefengynh: 行 03/19 14:14
381F:→ leefengynh: 2024才用全视觉端到端训练 03/19 14:14
382F:→ kazami: 会歪掉本来就很正常好嘛 AI有部分论文就是一直有新的架构 03/19 14:15
383F:→ kazami: 很多都是因为会歪掉 达不到好的结果 03/19 14:16
384F:→ leefengynh: 最简单的就是请你们这群文组韭菜去找出任何一家多传 03/19 14:16
385F:推 chandler0227: 去看CVPR 2025 依旧各种感测器类型都有,说纯视觉不 03/19 14:16
386F:→ leefengynh: 感器的自驾影片来证明赢过fsd 03/19 14:16
387F:→ leefengynh: 找不出来 就代表地球上还不存在多传感器赢过纯视觉 03/19 14:16
388F:→ leefengynh: 这不就最简单 03/19 14:16
389F:→ leefengynh: 你们在那意识形态 可以改变现实吗 03/19 14:16
390F:→ chandler0227: 晓得活在哪个平行世界 03/19 14:16
391F:推 kazami: 算了 不可与夏虫语冰 你继续活在你的世界吧 反正看起来特 03/19 14:18
392F:推 chandler0227: Tesla先做到不需配置安全驾驶员吧 03/19 14:18
393F:→ kazami: 还没止跌 你加油 继续战 881 03/19 14:18
394F:→ leefengynh: 意识形态就跟统独一样 讲再多都没用 03/19 14:19
395F:→ leefengynh: 请你去po出多传感器的自驾行车影片 03/19 14:19
396F:→ leefengynh: 能赢过特斯拉的fsd 03/19 14:19
397F:→ leefengynh: 中国那一票已经全输了 03/19 14:19
398F:→ leefengynh: (城市+山路+非道路场域)三种地形 03/19 14:19
399F:→ leefengynh: 给你时间去yt找吧 03/19 14:19
400F:→ leefengynh: 找到我给你奖金100万 03/19 14:19
401F:→ leefengynh: 没找到就不要在这边废话 03/19 14:19
402F:→ leefengynh: 很吵xddd 03/19 14:19
403F:推 chandler0227: 所以你判断依据是根据YT影片而不是IEEE的CVPR... 03/19 14:21
404F:→ leefengynh: 这个id我以後见一次就会问他一次「老黄的车」在哪 不 03/19 14:21
405F:→ leefengynh: 是说老黄的车都有了 03/19 14:21
406F:→ leefengynh: 那在哪 落地了吗xddd 03/19 14:22
407F:→ leefengynh: 绝对被我问到3年内连一个实际的屁产品都没有落地xddd 03/19 14:22
408F:→ leefengynh: dd 03/19 14:22
409F:→ zzahoward: 感觉你根本不懂ML阿.... 03/19 14:24
410F:→ leefengynh: 你们文组韭菜意识形态 03/19 14:24
411F:→ leefengynh: 跟你们讲理论已经没用 03/19 14:24
412F:→ leefengynh: 现在就是讲实际落地的产品 03/19 14:25
413F:→ leefengynh: 如果多传感器真的是王道 03/19 14:25
414F:→ leefengynh: 那一定会有厂商把它做成产品落地 03/19 14:25
415F:→ leefengynh: 直接举那个产品出来 03/19 14:25
416F:→ leefengynh: 不过我告诉你 可能30年内你们都拿不出来 03/19 14:25
417F:→ leefengynh: 一群韭菜xdd 03/19 14:25
418F:→ leefengynh: 明明就一群外行鲁蛇 03/19 14:26
419F:→ leefengynh: 通用和宾士2021就跟nvidia合作了 03/19 14:29
420F:→ leefengynh: 自驾到现在连个屁都没看到xddd 03/19 14:29
421F:→ leefengynh: 通用还退出研发了 03/19 14:29
422F:→ leefengynh: 真的快笑死 03/19 14:29
423F:→ leefengynh: 你的老黄自驾车快拿出来已落地的产品 03/19 14:29
424F:→ leefengynh: 我还在等耶 03/19 14:29
425F:→ zzahoward: 你讲话有点太呛了 目前还没落地不代表2026年不会出现 03/19 14:30
426F:→ zzahoward: 已经有很多家在用老黄的平台训练了 但需要点时间 03/19 14:30
427F:→ zzahoward: 事实上你看NHTSA当初的裁决 Tesla自己几乎承认没LiDar 03/19 14:32
428F:→ zzahoward: 无法达标 03/19 14:32
429F:推 StarburyX: Howard大说的也是没错 03/19 14:48
430F:→ StarburyX: 不过看业界访问 03/19 14:48
431F:→ StarburyX: 老黄的显卡模拟资料 只能拿来验证 03/19 14:49
432F:→ StarburyX: 无法拿来训练 03/19 14:49
433F:→ StarburyX: 要玩自驾 还是要有真实资料 03/19 14:49
434F:→ StarburyX: 玩自驾都还是会用NV的卡 包含Tesla没错 03/19 14:50
435F:→ StarburyX: 另外说一句E2E就没有光达的位置 03/19 14:51
436F:→ StarburyX: 还会用到光达 就不是真E2E 03/19 14:52
437F:→ StarburyX: Howerd大 还是用传统范式理解自驾 03/19 14:53
438F:→ StarburyX: FSD的技术是E2E 没有融合问题也无法 03/19 14:54
439F:→ zzahoward: 为什麽LiDar就不算E2E? 是高经地图才不算E2E吧? 03/19 14:55
440F:推 StarburyX: 光达是拿来感知的,很好的工具 03/19 14:57
441F:→ StarburyX: 感知後 还是要接决策,就是走传统范式了 03/19 14:58
442F:→ zzahoward: LiDar和摄影机的资讯从ML来看都是输入资讯的接收器 03/19 14:58
443F:嘘 zxcv800530: 乱讲一通 03/19 14:58
444F:→ zzahoward: 没阿 为什麽LiDar不能直接进ML? 03/19 14:58
445F:→ zzahoward: 你说的传统范式是在模型本身没把LiDar输入考虑进去 03/19 15:00
446F:→ zzahoward: 然後用LiDar资讯当冗余 但为什麽不能都用呢? 03/19 15:00
447F:→ zzahoward: LiDar还可以透过软体做虑波 这样不是更完整吗? 03/19 15:00
448F:推 StarburyX: 只能说目前技术没到吧(?) 03/19 15:01
449F:推 zyx12320: 可以啊,但多传感器融合要听谁的?你认为的冗余不是真 03/19 15:01
450F:→ zzahoward: 是还没学习够 毕竟LiDar+纯视觉训练不过是这两三年 03/19 15:01
451F:→ zyx12320: 正的冗余,目前就还没人解决 03/19 15:01
452F:→ zyx12320: 实测表现也没人追得上特斯拉 03/19 15:02
453F:→ StarburyX: Howard大提的技术也许很快就可以work了 03/19 15:02
454F:→ StarburyX: 特斯拉就怕新范式出现,FSD就完了 03/19 15:03
456F:→ StarburyX: 现在特斯拉Work的E2E就没有光达 03/19 15:03
458F:→ StarburyX: TESLA只怕两件事 1.出现新范式 03/19 15:05
459F:→ StarburyX: 2. Scaling law失效 03/19 15:05
460F:→ StarburyX: 讲到这边跑题了 笑 03/19 15:05
461F:→ zyx12320: 没跑题吧,不然这边的专家讲了N年都是同一套 03/19 15:06
462F:→ StarburyX: rober标题写FSD内容测AP就站不住脚 03/19 15:06
463F:→ StarburyX: AP还是传统范式 FSD是E2E 完全不同 03/19 15:07
464F:→ zyx12320: 我都懒得讨论rober,中国人2020用烂的手法2025还在用 03/19 15:08
465F:→ StarburyX: ZXY大贴的东西 没错 03/19 15:08
466F:→ StarburyX: 而且rober真的要跟中国媒体学一下 03/19 15:09
467F:→ StarburyX: 这种影片太直白 被骂到Lumina都缩了 03/19 15:10
468F:嘘 d4015394: 怎看到有低端说中国都是靠纯视觉 03/19 15:17
469F:→ d4015394: 这个低端不知道纯视觉对演算法的技术要求是最高, 03/19 15:17
470F:→ d4015394: 护城河是最高的吗 03/19 15:17
471F:→ d4015394: 既然如此中国廉价自驾哪有可能靠纯视觉 03/19 15:17
472F:→ d4015394: 不都靠光达作弊吗 03/19 15:17
473F:→ d4015394: 然後可笑的是靠光达作弊後 03/19 15:17
474F:→ d4015394: 自驾能力还比人家纯视觉低 03/19 15:17
475F:→ d4015394: 摄像头比人眼弱我还是第一次听到 03/19 15:18
476F:→ d4015394: 你家还是在用30年前的监视器吗 03/19 15:18
477F:→ d4015394: 现在随便一个2000元的监视器都比人眼强,你黑暗中看不 03/19 15:18
478F:→ d4015394: 到的,他都看得到 03/19 15:18
479F:→ d4015394: 特斯拉8只摄像头,不叫做超感官? 03/19 15:18
480F:→ d4015394: 什麽文组认知 03/19 15:18
481F:→ d4015394: 你的眼睛有8颗? 03/19 15:18
482F:→ d4015394: 摄像头里面的cmos还可以靠抓电子数去读每个噪点的光子 03/19 15:21
483F:→ d4015394: 颗粒数量 03/19 15:21
484F:→ d4015394: 你的眼睛可以读取到空间中有几颗光子? 03/19 15:21
485F:→ d4015394: 第一次听到摄像头不超感官的 03/19 15:21
486F:→ d4015394: 文组真多 03/19 15:21
487F:→ zzahoward: 不 人眼确实在很多方面比摄影机强 光是转动速度就是很 03/19 15:30
488F:→ zzahoward: 惊人的创造 虽然只有中心超高解析 但透过大脑可以达到 03/19 15:31
489F:→ carryton: 楼上蔚来、小鹏都有开发纯视觉 03/19 15:31
490F:→ carryton: 蔚来还自己开发AI晶片 03/19 15:31
491F:→ carryton: 整天把低端挂嘴边不如多看一点资讯 03/19 15:31
492F:→ zzahoward: 宽阔的视野 整个机构的旋转甚至还配合了颈部肌肉以及内 03/19 15:32
493F:→ zzahoward: 耳 03/19 15:32
494F:→ zzahoward: 假如人眼那麽弱 就不会天天追求更高的解析度了 03/19 15:33
495F:→ zzahoward: Fusion的对演算法的要求其实更高... 03/19 15:35
496F:→ zzahoward: 整体来说 我还是觉得纯视觉是推进自动驾驶主力 但是否 03/19 15:37
497F:→ zzahoward: 只靠纯视觉就能达成 我反而觉得有待讨论 03/19 15:38
498F:→ zzahoward: 以前很多人认为RL不可能成功所以都只用RLHF 但就是被突 03/19 15:39
499F:→ zzahoward: 破了 03/19 15:39
500F:嘘 d4015394: 近视100 200度的人都可以裸眼开车了啦 什麽人眼高解析 03/19 15:39
501F:→ d4015394: 度 03/19 15:39
502F:推 StarburyX: 用fusion处理感知 那接下来就是决策模块 03/19 15:40
503F:→ StarburyX: 决策模块就是一大堆rule base的东西 03/19 15:40
504F:→ d4015394: 你以为每个开车的眼睛都很健康1.0喔? 03/19 15:41
505F:→ d4015394: 我家人黄斑部病变 视力只有0.2都能在白天开车了 少胡说 03/19 15:41
506F:→ d4015394: 八道 03/19 15:41
507F:推 joiedevivre: 真的别浪费时间尝试教育失去理性的狂粉 没有意义 03/19 15:41
508F:→ StarburyX: 纯视觉 也是同样的问题 要写rule 03/19 15:41
509F:→ joiedevivre: 他说话不体面 就去置底文帮他体面 03/19 15:41
510F:→ d4015394: 更不用讲fsd又不是读图像 03/19 15:41
511F:→ StarburyX: 特斯拉AP AEB 停车辅助 跟召唤都是传统范式 03/19 15:41
512F:→ d4015394: 而是读光子颗粒数量 03/19 15:42
513F:→ StarburyX: 传统范式就是要写一堆rule 03/19 15:42
514F:→ zzahoward: 其实Fusion不同的传感资讯进入真的要写Rules吗? 不能直 03/19 15:42
515F:→ zzahoward: 接训练? 03/19 15:43
516F:→ StarburyX: AP AEB EAP 召唤停车辅助都是纯视觉 03/19 15:43
517F:→ d4015394: 现在我们看不到远处的招牌字 03/19 15:43
518F:→ joiedevivre: end to end就是不要rule的尝试 其实一直都有人做 03/19 15:43
519F:→ zzahoward: d401我讨论的是人眼天生的机构 你拿黄光病变.... 03/19 15:43
520F:→ d4015394: 都要用手机相机去拍下来放大了 03/19 15:43
521F:→ joiedevivre: 但特斯拉做了 让很多粉丝第一次认识到这个 开始狂吹 03/19 15:43
522F:→ d4015394: 来辅助人眼了 03/19 15:43
523F:→ d4015394: 到底在胡说八道什麽 03/19 15:43
524F:推 zyx12320: Howard大其实我贴的图已经回答你的问题了 03/19 15:44
525F:→ zzahoward: 黄斑病变* 03/19 15:44
526F:→ StarburyX: 训练出来的感知模块资料 就是要走决策 03/19 15:44
527F:→ d4015394: 一直插我话,是怕被我电爆吗 03/19 15:44
528F:→ StarburyX: 问题就是决策模块太多rule了 03/19 15:45
529F:→ zzahoward: zyx我有看你贴的 但那是用Tesla既有的模型下去解读? 03/19 15:45
530F:→ zzahoward: 那是你分别对两种传感器去training 但假如同时呢? 03/19 15:46
531F:→ d4015394: 人类近视就能裸眼开车了 03/19 15:48
532F:→ d4015394: 跟我说要开车的必要条件是高解析镜头 03/19 15:48
533F:→ d4015394: 真的被你这文组打败 03/19 15:48
534F:→ d4015394: 看不到远处招牌字,先用iphone相机拍下来再放大zoom in 03/19 15:48
535F:推 StarburyX: 就算你有再好的融合算法,还是绕不过决策模块 03/19 15:48
536F:→ d4015394: ,可以帮助自己看到极远处的字 03/19 15:48
537F:→ d4015394: 然後你跟我说人眼比镜头强 03/19 15:48
538F:→ d4015394: 这点快被你这文组打败 03/19 15:48
539F:推 leutk: 我以为追求更高解析度不就卖商品的行销方式吗 03/19 15:49
540F:→ leutk: 就跟音质一样 很多人就是看不出来跟听不出来 03/19 15:49
541F:→ d4015394: 人眼比镜头强,我直接肉眼看就好,我干嘛先用手机拍下 03/19 15:49
542F:→ d4015394: 来,再放大来看 03/19 15:50
543F:→ d4015394: 不是读医学的在那边胡说八道 03/19 15:50
544F:→ leutk: 然後当然不会有人承认啦 这样会显得自己低能 03/19 15:50
545F:→ d4015394: 真的快笑死 03/19 15:50
546F:→ d4015394: 光达会让解析度变高吗 03/19 15:51
547F:→ d4015394: 会以为人眼超越镜头本身就脑子要保养 03/19 15:51
548F:推 zyx12320: 融合算法就是指同时训练了啊,目前看来单模型也是正解 03/19 15:52
549F:→ zyx12320: 理想也刚放弃所谓的双系统,改成单ㄧ模型了 03/19 15:52
550F:→ zyx12320: Rule-based 注定失败就不讨论了,看waymo十几年的牛步 03/19 15:52
551F:推 leefengynh: 光达派就废得可以 几乎都不讨论演算法 03/19 15:54
552F:→ zyx12320: 多传感器+rule bas算是自驾滥觞,但也是一个诅咒 03/19 15:55
553F:→ leefengynh: 表示这群人基本上觉得演算法不是重点XDDD 03/19 15:55
554F:→ leefengynh: 觉得每台车都装上光达後 全自驾就达到了 神经病 03/19 15:55
555F:→ leefengynh: 就好像你买得的到EUV 2奈米就自动生出来了 03/19 15:55
556F:→ leefengynh: 人眼比镜头强这种常识就不用教了 03/19 15:56
557F:→ leefengynh: 人眼除了解析度能赢过镜头 其他全输 03/19 15:57
558F:→ leefengynh: 开车需要的并不是无限堆解析度 解析度达到基本门槛即 03/19 15:57
559F:→ leefengynh: 可 03/19 15:57
560F:→ leefengynh: 人眼如果硬要用解析度的概念 比4K影片还高 03/19 15:58
561F:→ leefengynh: 甚至8K的影片也达不到人眼的解析度 03/19 15:58
562F:→ leefengynh: 问题人眼缺乏高度远视能力 高度近视能力 夜视能力 03/19 16:00
563F:→ leefengynh: 所以人在看远处字体 看不清楚 才需要借助解析度比自己 03/19 16:00
564F:→ leefengynh: 差的手机镜头去拍摄读取 03/19 16:01
565F:→ leefengynh: 夜晚看不到才需要借助镜头夜视功能 03/19 16:01
566F:→ leefengynh: 然後人眼的高解析度只有在1.0的视力 并且投影在黄斑部 03/19 16:02
567F:→ leefengynh: 的那个角度 才会达到8k影片也达不到的解析度 03/19 16:03
568F:→ leefengynh: 也就一个角度 现实状况下 人眼根本无法跟镜头比 03/19 16:03
569F:→ leefengynh: 真正能让人类开车的 根本不是视力 视力只要有基本门槛 03/19 16:05
570F:→ leefengynh: 主要是人类的大脑 对於场景的理解跟解析 03/19 16:05
571F:→ leefengynh: 摄影机的综合能力本身就超越人眼了 03/19 16:06
572F:→ leefengynh: 在搭配优秀的演算法 开车要比人类安全10倍以上是基本 03/19 16:07
573F:→ leefengynh: rule based 会有最基本的幽灵煞车 几乎每家都解决不了 03/19 16:08
574F:嘘 d4015394: 会以为人眼超越镜头本身就脑子要保养 03/19 16:10
575F:→ d4015394: 还扯什麽颈部,你转头是可以看到侧後的车身 03/19 16:10
576F:→ d4015394: 讲得光达可以无视天气一样 03/19 16:13
577F:→ d4015394: 镜头不能开的光达一样死,还多了误判 03/19 16:13
578F:→ d4015394: 把致密的雨滴判断成障碍物 03/19 16:13
579F:推 spinnerl: 你以为镜头靠自己晚上就看得到? 03/19 16:24
580F:→ spinnerl: 不靠NIR LED也是一片黑啦 03/19 16:24
581F:→ zzahoward: 其实我不太懂为什麽两种感测器就一定要Rule Base 03/19 16:25
582F:→ zzahoward: 权重不就是Training的目的性吗?y 03/19 16:26
583F:推 kira925: 只有他知道的世界吧 03/19 16:26
584F:推 spinnerl: LiDAR是可以用SWIR波段的 03/19 16:27
585F:→ spinnerl: SWIR云雾的穿透力比可见光波段好 03/19 16:28
586F:嘘 d4015394: 特斯拉在暴风雪全雾气,全黑暗只开车灯的行车纪录一堆 03/19 16:29
587F:→ d4015394: ,脑子都没在看? 03/19 16:29
588F:→ spinnerl: 在SWIR波段太阳光干扰也少 03/19 16:29
589F:→ d4015394: 两种感测器跑E2E跑出来的结果就是不如纯镜头,这个特斯 03/19 16:32
590F:→ d4015394: 拉用过毫米波雷达和镜头训练过了,训练出来的权重就是 03/19 16:32
591F:→ d4015394: 不比纯视觉。 03/19 16:32
592F:→ d4015394: 但E2E是黑盒,无法解释为什麽会不如,只能接受结果 03/19 16:32
593F:→ d4015394: 这东西前面有人讲了,你还不懂,在这边搞笑 03/19 16:32
594F:→ zzahoward: LiDar也可以透过软体加大功率和抑制杂讯 03/19 16:32
595F:推 kira925: 有的时候我都会好奇 哪来这麽多帐号专门来吵架的 03/19 16:33
596F:→ d4015394: 不如特斯拉旧车用雷达是干嘛的,你以为是安装好玩的? 03/19 16:33
597F:→ d4015394: lol 03/19 16:33
598F:→ zzahoward: 其实Elon从没说过反对两种感测器... 03/19 16:35
599F:推 leefengynh: 没反对过 所以2020年以前的特斯拉二手车都有雷达啊 03/19 16:36
600F:→ leefengynh: 只是雷达和镜头一起训练表现结果就不好 03/19 16:37
601F:→ leefengynh: 不尊重这个科学事实 一直卢不知道干嘛 03/19 16:37
602F:→ zzahoward: 不 他只是认为LiDar不是他想要的解析等级 03/19 16:38
603F:→ leefengynh: 走纯视觉就是因为事实是这样 而不是特斯拉天生挺纯视 03/19 16:38
604F:→ leefengynh: 觉 03/19 16:38
605F:→ leefengynh: 而是事实显示非视觉感测+视觉 训练出来的权重表现结果 03/19 16:39
606F:→ leefengynh: 就是比纯镜头还差 03/19 16:39
607F:→ leefengynh: 而端到端是黑盒子 无法解释为什麽多一个感测结果会不 03/19 16:40
608F:→ leefengynh: 不如纯镜头 03/19 16:40
609F:→ leefengynh: 就像你也无法理解正杰为什麽要去捷运站砍人 03/19 16:40
610F:→ leefengynh: 你唯一能做的就是把正杰消灭掉 03/19 16:40
611F:→ leefengynh: 所以既然雷达和镜头一起训练出来的ai 表现很差 03/19 16:41
612F:→ zzahoward: 有LiDar+Pure vision vs. Pure Vision论文吗? 03/19 16:41
613F:→ leefengynh: 你也无法解释为什麽 你能做的就是废除这种混合体 03/19 16:41
614F:→ leefengynh: 改成纯镜头训练 03/19 16:42
615F:推 zyx12320: 现在连特斯拉都在藏了,只能用产品力评论 03/19 16:42
616F:→ zzahoward: 成果不好总是要有论文 或是模拟比较? 03/19 16:43
617F:→ zyx12320: 其实我贴的图就是精华了,有空可以再听这讨论 03/19 16:44
619F:推 leefengynh: 特斯拉早在去年开始的ai day就不公开他们自驾思路了 03/19 16:48
620F:→ leefengynh: v11版本之前还全部开源 进入v12就开始藏招了 03/19 16:48
621F:嘘 nrsair: 视力有问题去治疗不要在路上开车害人 03/19 16:49
622F:→ leefengynh: v11版本的fsd 我那时候看就是不行 还不成熟 03/19 16:49
623F:→ leefengynh: 进入v12 自驾开始有质的飞跃 然後ai day也不讲了 03/19 16:50
624F:→ leefengynh: 华为在我来看就是把特斯拉v11 做到极致 03/19 16:51
625F:→ leefengynh: 特斯拉显然v11做到一半 转技术路线 直接跳v12 03/19 16:51
626F:→ leefengynh: 如果华为智驾 vs 特斯拉v11 那华为会赢 03/19 16:52
627F:→ leefengynh: 因为特斯拉就半途放弃 直接转技术路线了 03/19 16:52
628F:→ leefengynh: v12以後 华为的v11就算写的在极致 和v12看起来就是有 03/19 16:53
629F:→ leefengynh: 代差 完全不是一个世代的东西 03/19 16:53
630F:→ leefengynh: 更不用讲v13又是v12的100倍强 03/19 16:54
631F:→ leefengynh: 真正会用在无人出租车的应该会是v14版本 03/19 16:58
632F:→ leefengynh: 这个版本会开始增加ai的长期记忆 03/19 16:58
633F:→ leefengynh: 长期记忆才是人类开车的安全冗余 03/19 16:58
634F:→ leefengynh: 目前的自驾基本上缺乏这块 03/19 16:59
635F:→ leefengynh: 人类在熟悉的道路 对汽车安全的掌握是不熟悉道路的10 03/19 16:59
636F:→ leefengynh: 倍以上 03/19 16:59
637F:→ leefengynh: 基本上v14以後就是要做到ai能把开过的路细节都记下 03/19 17:00
638F:→ leefengynh: 而ai因为有几百万辆车 所以开过的里程会远高於单人类 03/19 17:01
639F:→ sharku: 推 lee 观念正确 03/19 18:41
640F:推 APC: 天眼通 xDD 03/19 18:54
641F:推 kkittles: 看过一些中国FSD评测,同样路线第一次走错介入修正之後 03/19 19:09
642F:→ kkittles: 第二次再走就走对了,可能真的有长期记忆的功能了 03/19 19:09
643F:推 water6: 老黄做的是晶片跟训练平台… 03/20 00:09
644F:推 chandler0227: camera radar fusion的E2E也是不少人在做 03/20 08:04
645F:→ chandler0227: 去找CVPR 2025录取论文 各式感测器、感知、决策都有 03/20 08:05
646F:→ chandler0227: 被某些活在平行世界的讲成只有纯视觉+E2E才是唯一解 03/20 08:07
647F:推 StarburyX: 钱大 现实是现在每个人都想做啊 但是成品拿不出来 03/20 08:43
648F:→ StarburyX: 每家都马想做E2E 但市面上真的就没看到~ 03/20 08:44
649F:→ StarburyX: Tesla下一版要包音讯 也不是纯视觉了 03/20 08:45
650F:推 syk1104: 阿他就是撞之前还狂踩油门,都被警告了... 03/20 09:44
651F:嘘 weichungBRO: 还在成本考量 都2025年了 拜托 笑死 03/20 16:19
652F:推 cccc5566: Waymo跑十年以後还是一样的东西 03/21 03:30
653F:推 water6: 又有人用fsd测试一面假墙确定没撞了喔 03/21 06:51