作者a5mg4n (a5)
看板Stock
標題Re: [新聞] AI真會重演.com泡沫?那場從1995一路
時間Mon Nov 24 00:14:24 2025
比起網路泡沫,AI泡沫或許更大條
網路泡沫時的東西,現在看來理論上沒大問題,
只是當時合理的售價/成本做不到
AI的話,稍微測試,或許代表從根本就有點問題
(推理機制似乎是錯的,那再堆能源和晶片,
也只是繼續錯下去)
測試標的:丹麥B&W的有趣產品
https://i.meee.com.tw/RTZhBNf.jpg
理解正時關係有點燒腦,想試試看AI的效果
但結果有點讓人失望:
https://i.meee.com.tw/5hvMqyZ.png
https://i.meee.com.tw/P7yaYCE.png
https://i.meee.com.tw/5cFIZAd.png
除了測試標的外,
還能一眼看出的簡單常識性錯誤:
1.「每個汽缸只有一個活塞」
那這款1930年代至今暢銷,
還被蘇聯跟中國大量仿造,一度壟斷兩國鐵路的經典美國產品是?
https://i.meee.com.tw/RLJsxew.jpg
2.似乎更嚴重的邏輯錯誤:
「一個汽缸通常只有一個活塞,所以不會有『三個活塞間...」
既然都知道「通常」了,怎麼會接「所以不會有」呢?
(正常的推理能力,應該會開始說各種奇怪的方案)
===
現在的AI繼續下去,也許是蠢蛋進化論的另一種實作方式?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.159.77.144 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1763914471.A.EAC.html
1F:推 LuFatJier : LLM就是一個接龍遊戲,只要專業領域沒有特別訓練他 11/24 00:18
2F:→ LuFatJier : 就會用常見詞語+權重比例隨機回應 11/24 00:18
3F:推 sdbb : 謝謝 11/24 00:19
4F:推 junior020486: 沒事,等懂3缸活塞的把資料餵給AI就行了 11/24 00:20
https://www.shipsnostalgia.com/threads/double-acting-diesels.18308/page-3
十多年前,google還很好用的時候就有人餵給google了
5F:→ junior020486: 還沒餵到這份資料 11/24 00:20
6F:→ greedypeople: 接龍接的好其實拿來聊天就比大多數人類強了 11/24 00:27
7F:推 ultimatevic : 問的不好吧,AI工具會不會問還是差蠻多的 11/24 00:27
問的不好的話,找不到答案可以理解,
但直接說沒有,甚至如"2."說出邏輯不通的中文?
8F:→ greedypeople: 多的是人根本沒在鳥對方 自己講自己的 11/24 00:27
※ 編輯: a5mg4n (49.159.77.144 臺灣), 11/24/2025 00:31:43
9F:→ DIDIMIN : LLM 需要專業人士訓練他才會愈來愈準確 11/24 00:29
10F:→ DIDIMIN : 問題太過籠統就會發散式回答,問對問題很重要 11/24 00:30
11F:→ lplpyy : ai講錯你可以嗆他,卡後續 11/24 00:34
12F:→ ookimoo : 本來就是假AI 是靠修正上去統整出答案 11/24 01:11
13F:→ ookimoo : 怎麼能期望他對未知能統整出正確答案 論證很失敗 11/24 01:12
這就是比網路泡沫還嚴重的原因:網路泡沫的東西至少大多是真的
再說,不期待正確,但明顯自爆的答案確實超乎期待
(特別是連說中文都能說出邏輯矛盾的話)
14F:噓 OxFFFFFFFF : 所以呢,你想表達什麼,你只是舉了一個特例來否定 11/24 01:20
相對簡單的機械結構都能描述出這種邏輯完全不通的句子
何況複雜怪奇的(槓掉)國際情勢(槓掉)人類社會
15F:→ OxFFFFFFFF : 其他有用的例子。這個邏輯不能說是0分,但也差不多 11/24 01:20
16F:→ OxFFFFFFFF : 了。 11/24 01:20
以AI是不是泡沫來說,有用的例子看似無法支應之後幾年的支出
17F:推 gn02218236 : AI爛透了 別用:) 11/24 01:35
18F:→ b9513227 : 所以你找到一個沒啥訓練的 然後呢 11/24 01:42
※ 編輯: a5mg4n (49.159.77.144 臺灣), 11/24/2025 02:13:41
19F:推 alex8881012 : 強化學習之父一直都是說LLM從根本就問題很大 11/24 02:14
20F:→ alex8881012 : 不過目前主流就是LLM,沒辦法 11/24 02:16
21F:推 L1ON : 1.付費 沒付費都給你垃圾2.資料正確性很重要3.調整 11/24 02:25
22F:→ L1ON : 大概這樣 11/24 02:25
23F:→ L1ON : 每個人想要的答案不同,問或詠唱的方式也不同,比如 11/24 02:27
24F:→ L1ON : 有人能叫ai寫app寫code,有人只能問垃圾出來。 11/24 02:27
可怕的外送不是一眼就看出大問題(例:一打開就看到整隻小強)的
而是看似沒問題,但吃完讓人幾天離不開馬桶的
AI給出的垃圾如果是前者,問題不大,
但基本機制不改,給出後者的比例似乎太高
(怎麼分辨,或許是更深層次的問題)
※ 編輯: a5mg4n (49.159.77.144 臺灣), 11/24/2025 02:32:17
25F:推 L1ON : AI是未來的趨勢,也是必要之路。只是目前能變現的公 11/24 02:31
26F:→ L1ON : 司幾乎沒有 11/24 02:31
27F:推 L1ON : 現階段玩法沒人玩得起,大機率是泡沫。不代表這東西 11/24 02:34
28F:→ L1ON : 是泡沫,比如網路不是泡沫,但.com是泡沫 11/24 02:34
29F:推 as6633208 : 越聰明是一個跡象,聊天機器人一開始連基本聊天都不 11/24 03:07
30F:→ as6633208 : 知道在講什麼,gpt3.5創造出來後,甚至還可以開始可 11/24 03:07
31F:→ as6633208 : 以寫程式,寫程式是很重要的能力,程式這東西錯一個 11/24 03:07
32F:→ as6633208 : 字母就是全錯,現在llm在用的測試benchmark 就是拿 11/24 03:07
33F:→ as6633208 : 考題當例子例如科學、程式、數學、理解力,你一個模 11/24 03:07
34F:→ as6633208 : 型benchmark多少分,而目前來看算力堆起來,這bench 11/24 03:07
35F:→ as6633208 : mark就是越來越,通用性越來越強,so 根據Gemini 3 11/24 03:07
36F:→ as6633208 : 算力高benchmark也變高,目前來看這依然是一條可能 11/24 03:07
37F:→ as6633208 : 的路,不走不知道,走了才知道 11/24 03:07
38F:→ as6633208 : 你不敢肯定這是一條對的路,但同樣你也不敢否定這就 11/24 03:08
39F:→ as6633208 : 一定是一條錯的路 11/24 03:08
40F:→ as6633208 : 然後其實我認為目前在市場檯面上的模型,應該都不是 11/24 03:15
41F:→ as6633208 : 最強的,而是最穩定的,那些的語言模型公司私下實驗 11/24 03:15
42F:→ as6633208 : 的我相信應該更誇張,我認為他們看到什麼跡象,才敢 11/24 03:15
43F:→ as6633208 : 砸幾千億美元去衝算力,不如就靜觀其變期待一下人類 11/24 03:15
44F:→ as6633208 : 的奇異點ㄅ,砸錢的都宣稱看到跡象了你擔心啥呢,怕 11/24 03:15
45F:→ as6633208 : 你就投資VT阿 11/24 03:15
或許可以參考其他產業的歷史:
在哈伯法發明前,人造氨的主要方式是電弧法,
(在空氣中製造高溫電弧,產生氮氧化物)
效率很低,需要巨型(當時標準)電廠
https://en.wikipedia.org/wiki/Birkeland%E2%80%93Eyde_process
但哈伯法發明後,就不必耗這麼多電了
現在AI幾乎等同於用LLM做各種事情的現狀,
可能和當年人造氨產業類似:只有力大磚飛法能用
※ 編輯: a5mg4n (49.159.77.144 臺灣), 11/24/2025 03:40:31
46F:→ saisai34 : 問gpt台股幾點他都會瞎掰了 這個不懂亂掰的問題@n@a 11/24 04:29
47F:→ saisai34 : 不知道是怎麼產生的 明明他可以搜尋網路資料 @n@a 11/24 04:30
48F:推 r491396076 : 似是而非 11/24 06:08
49F:推 breathair : 餵特定資料,不要所有資料,會被污染 11/24 06:36
50F:→ breathair : AI是真的。從alphaGo 從規則開始學,不看人類棋譜而 11/24 06:36
51F:→ breathair : 幹掉人類,這貨就是真的,會不會用,有沒有被其他資 11/24 06:36
52F:→ breathair : 料污染的問題 11/24 06:36
53F:噓 bbboy : 通用型AI不用做到全知全能 比人類強就可以 11/24 07:20
54F:推 doubi : 目前 Google 賺錢新動能來自企業大規模採用 Google 11/24 07:24
55F:→ doubi : Cloud 以及 Google Workspace 11/24 07:24
56F:→ doubi : 首先你是使用 Google Search AI Mode,如果你沒付 11/24 07:25
57F:→ doubi : 費,它是使用最弱的模型快速回應 11/24 07:25
58F:→ doubi : 只有美國 Pro 用戶的 AI MODE 用上 Gemini 3 11/24 07:25
59F:→ doubi : 所以你這個案例真的沒啥意義,因為用的是舊模型, 11/24 07:26
60F:→ doubi : 因為你不是高價值用戶 11/24 07:26
61F:→ doubi : 未來就是有花錢的才會擁有更精準實用的回答,免費 11/24 07:27
62F:→ doubi : 用戶就是最劣質但是便宜快速的回答 11/24 07:27
63F:推 losage : 目前ai最大的問題是他根本無法:理解 11/24 07:44
64F:推 macetyl : 有些答案不是AI回答的不好,是你的英文不好 11/24 08:07
65F:推 synchronous : 物理AI才能變現回本,聊天AI無法,現在技術就不到 11/24 08:23
66F:→ synchronous : 物理AI 11/24 08:23
67F:→ synchronous : 2030 telsa FSD有望成爲第一個物理AI變現回本的 11/24 08:24
68F:→ synchronous : 其它物理AI 我連影子都看不到......... 11/24 08:24
69F:推 synchronous : 非物理AI變現的金額遠小於瘋狂砸算力越砸越多的支出 11/24 08:26
70F:→ synchronous : ,泡沫有一天大公司也撐不住就破掉了 11/24 08:26
71F:→ synchronous : 只看好 Tesla Google 可以活下來 11/24 08:26
72F:推 synchronous : 這兩家都不是全靠 NV… 所以歐印NV是有風險的 11/24 08:30
73F:→ Gipmydanger : z5碳吉某? 11/24 08:32
74F:推 as6633208 : 你是說tesla google自己的晶片可以在五年後超過取代 11/24 08:44
75F:→ as6633208 : nv,然後nv這五年一直輸都不研發,我還是看好NV不賣 11/24 08:44
76F:→ as6633208 : 不賣 11/24 08:44
77F:→ as6633208 : 這樣我還是比較看好NV,這就像三星個手機的又搞晶片 11/24 08:44
78F:→ as6633208 : 代工,後來就是每個都搞 11/24 08:44
79F:→ as6633208 : 每個都爛 11/24 08:44
80F:→ LoveSports : 你要問冷門問題不要用AI模式 那是問主流問題用到 11/24 09:05
81F:→ Oggy : 我想問 有多少大廠巨頭投入ai,要是真得泡沫 11/24 09:09
82F:→ Oggy : 似乎是整個經濟體的崩潰 而不是單純不景氣 11/24 09:09
83F:→ mdkn35 : 一直拿特例就不是AI強項 你隨便問個路人誰知道 11/24 09:09
84F:→ Oggy : 還是像KFK說的大約2050-2060年 股市一夕成無意義 11/24 09:10
85F:噓 MoonCode : 這跟觀察龜殼預測未來有什麼不同 11/24 09:26
86F:→ jim543000 : ai很難運用在創造性工作上 如果是機械設計類 目前 11/24 09:31
87F:→ jim543000 : 我用過的專用模型沒有一個可以創造出堪用的拓樸機構 11/24 09:31
88F:噓 shinewind : 不倫不類的類比,神經病 11/24 09:48
89F:→ shinewind : AI可以挑他相對厲害的地方啊 11/24 09:48
90F:→ shinewind : 目前在生成缺陷資料、自駕、藥物資料,這幾個主要 11/24 09:49
91F:→ shinewind : 應用的狀況再來說吧 11/24 09:49
92F:→ shinewind : AI不是什麼領域都全能 11/24 09:49
93F:噓 patvessel : 我也覺得會泡沫 但是覺得你這種不理解原理就下結論 11/24 10:16
94F:→ patvessel : 的頂多就是歪打正著 11/24 10:16
95F:→ haver : AI就只是工具用來輔助的 其實就是網路的衍生品 11/24 10:40
96F:→ mouscat : 我剛剛也問了GPT5.1的thinking mode台股指數 他提 11/24 11:03
97F:→ mouscat : 供了特定時間的正確數字還附上來源跟為何引用欸 11/24 11:03
98F:→ mouscat : 我感覺更偏向你的語文能力需要加強 11/24 11:09
99F:→ jim543000 : 樓上 這種統計資料不就是很簡單的處理嗎? 11/24 11:32
100F:推 mouscat : 回應某樓説台股加權也會給錯而已 11/24 12:16
101F:噓 maxisam : 你這用的是Google search 的最便宜的AI 然後問題問 11/24 14:36
102F:→ maxisam : 的不清楚 更別說是中文 11/24 14:36
103F:噓 maxisam : 然後這種東西你拿去問一般人9成都不知道 所以真人 11/24 14:38
104F:→ maxisam : 是沒智商?這推論根本就錯了 11/24 14:38
105F:推 chiro1982 : AI還在萌芽階段而已啦 11/24 14:51
106F:→ htiio : 專業領域還有很多資料沒喂 11/24 15:44
107F:→ htiio : 不要現在就武斷ai發展 11/24 15:44
108F:→ htiio : 要不要看看open ai才出來幾年就已經進步這麼多了 11/24 15:44
109F:噓 applecliff86: 這些LLM不是拿來這樣用的 你用這個去推論AI泡沫根本 11/24 18:10
110F:→ applecliff86: 是瞎猜 AI工具也不是讓人變白癡不自己去查資料 是拿 11/24 18:10
111F:→ applecliff86: 來輔助 11/24 18:10
邏輯能力太薄弱的話,就不如關鍵字查資料了
(aka沒有理由花這麼多錢)
邏輯能力薄弱的另一組案例:
正常來說,前面的問題應該天然涵蓋後面的問題
但前面(範圍更大)的明顯錯誤,縮小範圍後才正確?
https://i.meee.com.tw/FXLWN7e.png
https://i.meee.com.tw/hV6XrwB.png
※ 編輯: a5mg4n (49.159.77.144 臺灣), 11/24/2025 23:19:21