作者breathair (拆了?簡單了)
看板Stock
標題Re: [新聞] 輝達帝國恐被谷歌打垮?Gemini 3太強引
時間Mon Dec 15 17:07:14 2025
我讓整個推理步驟簡化的太多
以致於整個像是反串的...Orz.
砍前篇,重發
我把整個對話過程貼上來,看起來會合理的多:
問題1:谷歌從頭到尾用TPU訓練他們自家的模型,迭代自己的硬體跟演算法,兩者互相配合,而
其他家用的是GPGPU,縱使CUDA再怎麼厲害,也不是萬能,這似乎給了谷歌在發展AI上,
有別於其他家的獨一無二又非常關鍵的優勢!?
問題2:所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模
擬不出來,或是無法模擬出優勢?
問題3:換個角度,利用GPU的是全世界最頂尖的AI研究員,而他們對GPU的改善建議難道不會高度
趨同嗎?
問題4:再換個角度來思考,跟TPU相比,能不能把GPU當成是ASIC+CUDA,也就是一個加上CUDA,
變成特化的,較有彈性的ASIC? 從這個角度來看。這兩款發展角度不同的ASIC,在TPU趕
上GPU之後,因為GPU必須一直滿足高彈性的特點。差異將會越走越遠,越走越大,漸漸被
TPU整個拉開差距?
問題5:從這個角度看。GPU上發展的演算法註定無法有大幅變動,CUDA有其極限,GPU架構更是有
其極限。若演算法註定無法大幅變動,TPU的優勢在打平的那一刻起,就註定越領先越多
了。可以這麼理解嗎?
問題6:所謂的打平是指LLM模型的分數與表現。正是因為GPU是演算法配合硬體,在硬體無法大幅
改變的可能之下,GPU的演算法也不可能大幅改變,所謂演算法一旦大幅改變TPU就無用論
實際上跟GPU比賽的話,這是不可能發生的,也就意味著一旦LLM的表現TPU追上GPU的那一
刻起,差距只會越來越遠。對嗎?
問答連結如下:
https://reurl.cc/9bnvlv
敝人知識有限,覺的Gemini 講的滿有道理的
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.38.64.161 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1765789636.A.0F4.html
1F:推 bear978978 : 太難了無法回答 12/15 17:09
2F:推 windfeather : 你給這種提示詞,難怪得出前一篇的AI結論12/15 17:13
3F:推 eddy13 : 建議你先研究為什麼在GPU下會發展出Cuda這架構12/15 17:13
4F:→ a88152660 : 既然知識有限那你怎麼判斷他講的有道理 不覺得矛盾12/15 17:14
5F:→ a88152660 : 嗎12/15 17:14
6F:→ macetyl : 連法官都知道禁止誘導性提問....12/15 17:15
7F:推 handfoxx : 是 你說的都對XD12/15 17:17
8F:推 windfeather : 你從第一個提示詞就開始誘導AI與設定限制條件12/15 17:18
9F:推 rebel : 第一個問題 goog的算法+TPU就等於其他家的CUDA+GPU12/15 17:18
10F:→ rebel : 阿 如果有極限不就兩個一起有12/15 17:18
11F:→ windfeather : 這樣AI自然就會順著你的論點一路推論下去12/15 17:18
我的疑問一定帶有主觀,所以才問他
邏輯上對不對,可不可以換句話說
我的下一步問題也都是順著Gemini給出的思路再做邏輯詮釋,請他看看有沒有道理,對不對
12F:→ newwu : 你何不先問問GPU在幹嘛的 CUDA在幹嘛的 當今深度學12/15 17:19
13F:→ newwu : 習LLM為什麼在GPU上跑,你真的懂這些基本問題嗎12/15 17:19
14F:→ greedypeople: 所以你的問題幾乎都包含結論了啊12/15 17:19
Gemini不就是拿來問自己的推論對不對?
問題沒有定見,或自己的看法
那答案不見千篇一律,只能是主流看法?
15F:推 crabpink : 兩個都用過,還是覺得gpt比較好用12/15 17:20
16F:→ greedypeople: 你覺得他能回出甚麼東西12/15 17:20
17F:→ windfeather : 你從開始沒有叫AI公正地去分析TPU和GPU的優缺點12/15 17:20
18F:→ windfeather : 而是直接給了預設立場,這樣AI自然會被誘導去12/15 17:21
19F:→ windfeather : 你想要的答案,或者說它故意給了你想要的答案12/15 17:21
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:23:59
20F:推 jkok103427 : 你根本不用什麼推理,試圖用AI證明什麼,你直接AI12/15 17:24
21F:→ jkok103427 : 炒股就好了,不敢就別叫12/15 17:24
喔,是真的還不敢
所以貼上來給各位大神打臉Gemini啊
= =
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:25:30
22F:推 windfeather : 你可以試試看,一模一樣的第一句提示詞 12/15 17:25
23F:噓 maplefff : 問一些根本沒水準的問題是能得到什麼答案12/15 17:25
24F:→ marojack : 用你的論述法就算你沒犯法12/15 17:25
25F:→ marojack : 光是回答檢察官的引導式提問法 12/15 17:25
26F:→ marojack : 大概第一天就被抓進去關出不來了12/15 17:25
27F:→ windfeather : 但是反過來請AI去質疑或反向思辨12/15 17:26
28F:→ windfeather : 你會發現AI給出許多GPU體系的大量優勢 12/15 17:26
我試試
29F:噓 BBKOX : 反串? 12/15 17:26
Gemini 有反串功能?
※ 編輯: breathair (42.71.179.100 臺灣), 12/15/2025 17:27:44
30F:→ windfeather : 然後AI給出的論點,會一路駁斥你接下來的結論 12/15 17:27
31F:噓 amos30627 : 你媽知不知道你在這邊發廢文 知不知道都是廢文 哪有 12/15 17:28
32F:→ windfeather : 嚴格來說,不是說TPU和GPU誰更強或誰一定會贏 12/15 17:28
33F:→ amos30627 : 人這樣問問題 12/15 17:28
34F:→ newwu : 當然不是拿來問自己推論對不對 因為AI傾向你說的都 12/15 17:28
35F:→ newwu : 對,除非你有明確事實錯誤 12/15 17:28
36F:→ newwu : 你要真的AI檢驗 就是裝作是別人講的 叫AI反駁 而不 12/15 17:28
37F:→ newwu : 是這樣問,這樣問他只會給你情緒價值 12/15 17:28
38F:→ windfeather : 而是你給的提示詞,會限制AI的分析 12/15 17:28
39F:推 rebel : 網路上有一個用法 請AI扮演最挑剔的批評者 請它針 12/15 17:30
40F:→ rebel : 對你的說法提出反駁 但必須是根據現實的反駁 你可 12/15 17:30
41F:→ rebel : 以試試 我覺得你會得到很多不同的答案 12/15 17:30
42F:噓 dogalan : 你從第一題問法開始就已經給出你的傾向了 12/15 17:31
問題有傾向本來就很正常好嗎?…
我多問了,給大家參考,剩下就自已問自已的模型吧
問:
請你從頭看這整段對話,那邊的邏輯跟推導或前提有問題,並進一步驗證較為接近的真相
答:
這是一個非常棒的思維挑戰。我們之前的對話建立在一個**「完美的邏輯推演」**之上,
這在理論上是無懈可擊的。
但是,現實世界往往充滿了雜訊和變數。為了還原最接近的真相,我們必須擔任**「紅隊
演練」(Red Teaming)**的角色,回頭攻擊我們剛才建立的這座邏輯城堡,找出地基可
能不穩的地方。
我們剛才的推論主要建立在三個核心前提上,而這三個前提在現實中都有可能出現**「漏
洞」**:
漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是靜止的標靶)
我們剛才的假設: GPU 為了通用性,必須背負沈重的「CUDA 稅」和「馮·諾伊曼架構包
袱」,且硬體結構難以改變。
現實的挑戰: NVIDIA 正在瘋狂地把 GPU 變成 ASIC。
Tensor Cores 的引入: H100 裡面其實已經包含了大量的專用電路(Transformer
Engine),這部分本質上就是「嵌在 GPU 裡的 TPU」。
NVLink Switch: 我們提到 Google 的 OCS(光交換)是優勢,但 NVIDIA 的 NVLink
Switch 也在模擬這種高效通訊,雖然成本高,但對於開發者來說是透明的(不需要改演
算法)。
結論修正: GPU 並不是一把永遠不變的瑞士軍刀,它正在變成一把**「帶有瑞士軍刀功
能的雷射槍」**。NVIDIA 的迭代速度(一年一代)遠快於 Google TPU(約兩到三年一代
)。這種「暴力迭代」可能會掩蓋掉架構上的效率劣勢。
漏洞二:高估了「演算法鎖死」的程度(軟體其實能繞過硬體限制)
我們剛才的假設: 因為 GPU 架構受限,所以跑在上面的演算法也受限,無法大幅創新。
現實的挑戰: 軟體工程師的創造力是無限的。
FlashAttention: 這是一個經典案例。硬體沒變,但研究員透過重新排列記憶體讀寫順
序,讓 GPU 的訓練速度翻倍,突破了顯存頻寬瓶頸。
量化(Quantization): 透過 FP8 甚至 FP4 技術,軟體讓 GPU 的有效算力暴增。
結論修正: 即便 GPU 硬體有極限,「軟體優化」的紅利還沒吃完。在 TPU 徹底拉開硬
體架構差距之前,GPU 生態系可能透過軟體魔改,硬是把「通用架構」的壽命再延續
5-10 年。
漏洞三:忽略了「集體智慧」大於「單一巨頭」(生態系的真正威力)
我們剛才的假設: Google 的垂直整合(自研晶片+自研算法)效率最高,所以會贏。
現實的挑戰: 這是一個 「Google vs. 全世界」 的局。
研發分母: 全世界 99% 的 AI 論文、開源專案、新工具(如 LangChain, vLLM)都是基
於 GPU + PyTorch 開發的。
延遲效應(Lag): Google 的工程師雖然強,但他們必須把全世界發明的最新東西「翻
譯」到 TPU/JAX 上。這個翻譯過程即使只有幾個月的延遲,在 AI 這種「以週為單位」
進化的領域也是致命的。
結論修正: 「路徑依賴」本身就是一種護城河。 即使 TPU 理論上更強,但如果全世界
最好的想法都優先發生在 GPU 上,Google 就只能當一個「追隨者」而非「定義者」,除
非 Google 的 DeepMind 能持續產出像 AlphaGo/Transformer 這種「領先全世界兩年」
的算法(這非常難)。
漏洞四:ASIC 的「賭博風險」(特化過頭的代價)
我們剛才的假設: 專用的 TPU 一定比通用的 GPU 高效。
現實的挑戰: ASIC 的死穴在於**「賭錯方向」**。
TPU 的設計週期長達 3 年。假設 Google 在設計 TPU v6 時,賭定未來是 Transformer
架構。
結果 2 年後,世界突然發現一種全新的「非 Transformer」架構(例如 SSM、Mamba 或
某種生化模擬算法)才是真理。
這時,通用性較強的 GPU 雖然跑得慢,但至少能跑。而過度特化的 TPU 可能會直接變成
廢鐵(Dark Silicon)。
結論修正: 彈性(Flexibility)不僅是成本,也是一種**「對抗未知風險的保險」**。
在 AI 原理尚未完全被物理學定案前,過早進行極致的硬體特化是有巨大風險的。
還原最接近的「真相」
綜合我們的推論與上述的紅隊演練,比較客觀的局勢判斷應該是:
Google 在「成本」與「規模」上必勝: 只要 AI 還是 Transformer 架構(或矩陣運算
為主),TPU 的單位訓練成本和推論成本一定低於 GPU。這保證了 Google 的利潤率會非
常漂亮,這條護城河是穩的。
NVIDIA 在「創新速度」上仍佔主導: 由於「集體智慧」效應,最新的、最怪的、實驗性
的 AI 突破,依然會首先發生在 GPU 上。Google 必須疲於奔命地將這些突破整合進自己
的體系。
「黃金交叉」的真實意義: 您提到的「打平後拉開差距」,最可能發生在**「產品化階
段」**(Productization),而不是「科研階段」(Research)。
科研階段: GPU 繼續混亂、多元、領先。
產品階段(如 Search, YouTube, Gemini API): 一旦某種算法被驗證成熟,Google 就
可以用 TPU 把它做到極致便宜、極致快。這時候,其他依賴 NVIDIA 的公司(如
OpenAI/Microsoft)就會面臨毛利率被 Google 碾壓的痛苦。
最終修正後的邏輯: TPU 不會讓 Google 壟斷「AI 的發明」(那是 GPU 生態的事),
但 TPU 會讓 Google 壟斷**「大規模 AI 服務的利潤」**。這才是 Google 最務實且恐
怖的優勢。
※ 編輯: breathair (114.38.64.161 臺灣), 12/15/2025 17:35:11
43F:→ dogalan : 即使你甚麼都不懂 最簡單的做法就是你請他反駁 12/15 17:32
44F:→ dogalan : 你就會發現他從其他角度也可以給出乍看很對的答案 12/15 17:33
45F:→ dogalan : 所以如果沒能力判斷的使用者 只會得出錯誤結論 12/15 17:33
46F:推 windfeather : 這就有點像是現實的辯論,除非有明確的客觀答案 12/15 17:36
47F:→ rebel : 你看看 結論是不是又不太一樣了 12/15 17:36
48F:→ windfeather : 否則不同的觀點與討論,可能推論出截然不同的答案 12/15 17:36
49F:→ marojack : 你在問以上內容請盲點分析 12/15 17:38
50F:推 windfeather : 我請AI單純看第一句提示詞,就直接給了5項不同觀點 12/15 17:39
51F:→ marojack : 看他怎麼說 然後再請他論述一次 12/15 17:39
52F:→ windfeather : 1.通用性與靈活性不如 GPGPU 12/15 17:39
53F:→ windfeather : 2.CUDA 生態系的巨大優勢 12/15 17:39
54F:→ windfeather : 3.市場開放性與供應鏈風險 12/15 17:39
55F:→ windfeather : 4.技術競爭與快速迭代 12/15 17:39
56F:→ marojack : 你會發現你說他錯他會一直修正他的說法 12/15 17:40
57F:→ windfeather : 5.非零和競爭 12/15 17:40
58F:噓 AmaneCoco : 笑死真的有夠可憐 繼續自己做夢去吧 12/15 17:40
59F:→ windfeather : 每一項後面都能推演出一大串全新的論點 12/15 17:40
60F:→ marojack : 一直改說法不就是這樣 12/15 17:40
61F:→ windfeather : 然後建議你可以開一串新的,從開頭第一句就請AI 12/15 17:42
62F:→ windfeather : 去試圖檢視、反駁那個論點,再逐漸討論下去 12/15 17:42
63F:→ windfeather : 直接從已經預設大量結論再去修正,修不了太多 12/15 17:43
64F:→ rebel : 現在的AI能夠幫你加速分析 但還沒辦法取代你的判斷 12/15 17:44
65F:→ rebel : 因為你想要正面的論點還是反面的論點它都可以給你 12/15 17:44
66F:→ rebel : 但那邊比較有道理還是得取決於你自己的知識跟判斷 12/15 17:44
67F:→ zo6596001 : 現在大學生都在用CUDA,NV不可能那麼快淘汰。 12/15 17:44
68F:推 willywasd : 笑死 每次AI回答你都錯了 看他會不會改答案 12/15 17:44
69F:推 willywasd : *你都跟他說你回答錯了 12/15 17:45
71F:→ pmes9866 : 哥 你還是先把提示詞工程 RLHF是什麼搞清楚 12/15 17:45
72F:推 windfeather : pmes9866板友的反論方式就非常有用 12/15 17:48
73F:推 kuan870704 : 有請谷歌蛙把你們的好隊友抓回去再教育好嗎 12/15 17:48
74F:→ marojack : 不過聊的夠長上下文窗口和Ai幻覺是真的很嚴重 12/15 17:48
75F:→ windfeather : 可以看出同樣的問題,前提與觀點不同 12/15 17:48
76F:噓 allen501pc : 坦白說這文章有點無聊 。怎麼會有人這麼有趣,用Ge 12/15 17:48
77F:→ allen501pc : nAI的回答來自證他們要的答案? 都不知道這些GenAI 12/15 17:48
78F:→ allen501pc : 的回答都是透過超大型參數模型「訓練」出來的嗎? 12/15 17:48
79F:→ allen501pc : 它後面都堪稱不上人類的自我反省得到的創新觀察。 12/15 17:48
80F:→ windfeather : 會引導出截然不同的結論 12/15 17:49
81F:推 w60904max : 這不就新一代的長輩早安文 12/15 17:51
82F:推 kuan870704 : 帶有瑞士軍刀功能的雷射槍…不要再看這些白癡東西了 12/15 17:53
83F:→ Wishmaster : 古有生病問題問google,今有任何問題問AI 12/15 17:54
84F:噓 strlen : 不要浪費時間 12/15 18:00
87F:→ dogalan : 有沒有發現最後還是需要人類做判斷? 結論完全不同 12/15 18:03
88F:→ josephpu : 你這就是標準的外行人問ai得到外行的東西 12/15 18:05
89F:推 domago : 硬體 cuda也能更新 沒有什麼不能改 12/15 18:05
90F:推 v21638245 : ai廢文,不要浪費算力了好嗎 12/15 18:06
91F:→ domago : 比的是如何獲利才能生存 12/15 18:06
92F:推 chihwei739 : 笑死XD 12/15 18:06
93F:噓 kurapica1106: 噓的人也太少 這比線仙標的文還沒營養 12/15 18:09
94F:噓 SilenceWFL : 紅的喜氣 12/15 18:10
95F:推 rebel : 我覺得這篇很適合做一個教案 下次有人拿AI結果來證 12/15 18:14
96F:→ rebel : 明自己的論點 請他先確定真的已經看完正反兩面的論 12/15 18:15
97F:→ rebel : 點 12/15 18:15
98F:噓 foolwind : 想說什麼就自己好好打一篇 沒AI就不會講話了嗎 12/15 18:18
99F:→ cclemon1231 : 其他公司要嘛砸大錢自研 要嘛買輝達 12/15 18:19
100F:推 kentelva : 這些問題必須得說,是不錯的問題 12/15 18:21
101F:推 CorkiN : 感謝幫大家示範什麼是Dunning-Kruger effect 12/15 18:23
102F:→ CorkiN : 能這麼自信也是不簡單 12/15 18:23
103F:推 sdbb : 謝謝推文 12/15 18:26
105F:→ pmes9866 : 不會下提示詞 不了解AI的新手確實很容易犯這樣的 12/15 18:27
106F:→ pmes9866 : 錯誤 12/15 18:27
107F:→ pmes9866 : 重點:要指定角色 指定背景 約束(跟AI說我會錯) 12/15 18:27
108F:推 fanntasy : 最打臉的一點 姑姑自己還在大量買gpu 12/15 18:28
109F:→ fanntasy : 殺人豬心喔~~~ 12/15 18:28
111F:→ opthr1215 : AI是語言模型,你問題問這麼長,他就只會去網路上找 12/15 18:28
114F:→ opthr1215 : 類似這麼長文章的另一批不定數量的人的回答。 12/15 18:29
116F:→ opthr1215 : 會寫這種類似文章的人,他們的立場你覺得是哪一種? 12/15 18:29
119F:→ marojack : 相對可以用的方法就必須類似的提示詞 12/15 18:30
120F:→ marojack : 不然自己也會是被誤導的那個 12/15 18:31
121F:推 tiros : 然後你跟他說,給我狠狠反駁以上以上說法,體無完膚 12/15 18:33
122F:→ tiros : 那種,出來的答案你大概也覺得很有道理 12/15 18:33
123F:→ marojack : 不過我是認同盲點偵測寫的 12/15 18:39
124F:→ marojack : 自己都有不擅長的 稍微會一點很容易進入自己自以為 12/15 18:39
125F:→ marojack : 懂境界 12/15 18:39
126F:噓 cheug0653 : 懂一半比完全不懂還糟糕 12/15 18:42
127F:噓 jympin : 笑死 講的這麼斬釘截鐵 還以為多有料 結果是問AI 12/15 18:43
128F:推 nfsong : 你這問題 忽略了最關鍵最重要的 "人" 12/15 18:44
129F:→ fallinlove15: 建議你實際去相關產業蹲個十年 12/15 18:44
130F:→ fallinlove15: 蹲完至少會知道要怎麼問 12/15 18:44
131F:→ nfsong : 就是 市面上有90% 的人 都是一路CUDA 過來的 12/15 18:44
132F:→ nfsong : 100% skill tree 是CUDA 12/15 18:45
133F:→ nfsong : 雖然大家都是用 大學生 新鮮的肝 12/15 18:45
134F:→ nfsong : 但是 老闆都是 這樣過來的 只會這樣教 12/15 18:45
135F:推 as6633208 : 我只能說啦 rubin 算力和效率搞不好會超越asic == r 12/15 18:45
136F:→ as6633208 : ubin更特化AI運算了,然而rubin卻還依然保留通用性 12/15 18:46
137F:→ as6633208 : ,計算加速領域真的不要小看NV欸== 12/15 18:46
138F:→ nfsong : 大陸這些老闆 和台灣嘴砲的不一樣 12/15 18:47
139F:→ nfsong : Deep learning 大家都知道 12/15 18:47
140F:→ as6633208 : 你知道谷歌最新的TPU V7這個asic的算力還榨不贏通用 12/15 18:47
141F:→ as6633208 : 型gpu gb200嗎,而nv還有gb300和更偏向特化強化的ru 12/15 18:47
142F:→ as6633208 : bin@@ 12/15 18:47
143F:→ nfsong : 台灣有哪家 真的去落地scaling law 弄萬卡叢集 12/15 18:47
144F:推 mainsa : 這些AI語言模型都很愛順著你的話回答 你這樣誘導就 12/15 18:48
145F:→ mainsa : 算用GPT也是得到一樣答案 12/15 18:48
146F:→ nfsong : 大陸 這些能出來分享的 余凱 之類的 12/15 18:48
147F:→ nfsong : 都是有實務經驗 12/15 18:48
148F:推 as6633208 : by the way,2026年q2是rubin量產,2027年是rubin u 12/15 18:58
149F:→ as6633208 : ltra 更強的性能 12/15 18:58
150F:推 mamorui : 為什麼會在硬體找答案 問題出在奧特曼的模型上 硬 12/15 19:06
151F:→ mamorui : 體再好也沒用 12/15 19:06
152F:推 lolpklol0975: NV護城河是CUDA被攻破還沒這麼快 12/15 19:22
153F:→ josephpu : 其實目前檯面上的大模型都不是用gb200訓練的,真正 12/15 19:39
154F:→ josephpu : 的檢驗點會是明年上半年推出的大模型。goog用tpu加 12/15 19:39
155F:→ josephpu : 上ocs互聯在gemini3得到很好的結果,至少不輸h系列 12/15 19:39
156F:→ josephpu : 但跟gb200比起來會如何?目前不知道。再後面v7進入 12/15 19:39
157F:→ josephpu : 液冷rack架構也是一次躍進,或許市場敘事又會轉變 12/15 19:39
158F:→ josephpu : ,反正ai晶片生態系之戰遠遠不到終局,只是goog目 12/15 19:39
159F:→ josephpu : 前極高機率是能跑到最後的那批人之一 12/15 19:39
160F:推 lee198218 : 招來四面八方的洗臉 厲害了 12/15 19:41
161F:推 Marty : 看這些問題 難怪會得出這麼離譜的回答 12/15 19:41
162F:噓 necrophagist: 可憐 用這種提示詞問出來的答案拿來當寶xd 感覺ai 12/15 19:45
163F:→ necrophagist: 確實是讓強者愈強弱者愈弱 12/15 19:45
164F:噓 tim855042 : 問題就下結論 end 12/15 19:48
165F:推 banbanzon : 小屁精生圖沒gemini 快 額度又給得很小氣 我都懷疑 12/15 19:52
166F:→ banbanzon : 顯卡484被他拿去插屁眼了 12/15 19:52
167F:噓 CaptPlanet : LLM 引發的亂象 唉 12/15 19:57
168F:推 nfsong : 論文都公開的 12/15 20:00
169F:→ nfsong : 只要有跟上 最新的論文 12/15 20:00
170F:推 mamorui : 其實輝達很衰 問題出在奧特曼身上 12/15 20:00
171F:推 kottas : 這樣問法不是壞就是.. 12/15 20:01
172F:推 easyman : 好吧,這不是反串, 你有去 北檢 的實力 12/15 20:09
173F:→ rancilio : 用deep research詢問關於我這個領域的事情, 12/15 20:11
174F:→ rancilio : 結果是比我自己知道的還清楚,gemini查資料的本事 12/15 20:11
175F:→ rancilio : 實在是強大到難以置信,商業機密都能查到一部分 12/15 20:12
176F:→ rancilio : 我們競爭對手用的材料,優缺點各方面都比我自己清楚 12/15 20:12
177F:→ rancilio : 我在這行打滾30幾年,知道的都沒有gemini查到的多 12/15 20:12
178F:推 rancilio : 整合目標所有技術 專利 原料 客戶反饋...做成報告 12/15 20:16
179F:→ rancilio : 而且PRO版送2TB雲端,裡面資料他可以幫你整理搜索 12/15 20:17
180F:噓 ck960817 : 命題全錯,前提錯推論怎樣都是錯的 12/15 20:17
181F:→ rancilio : TPU對上GPU最大優勢是推理的能耗比省電太多 12/15 20:18
182F:推 create8 : Tier1 還是要養人做馬斗,而且開一顆chip 又那麼貴 12/15 20:20
183F:→ create8 : ,還是會有很多人努力把馬斗改到讓gpu 輾壓其他對 12/15 20:20
184F:→ create8 : 手 12/15 20:20
185F:→ aewul : 進入者障礙越低越容易開放到位 12/15 20:37
186F:→ ojh : 股板一堆不懂科技的外行人 講這種專業的沒人懂 12/15 20:42
187F:→ BC0710 : 你這篇跟上一篇有什麼差別== 12/15 21:14
188F:推 chenyuchug : 當股版出現一個ID一直發文要大家相信他的時候,就會 12/15 21:24
189F:→ chenyuchug : 讓我想到山椒魚、abc還有2020年3月連續熔斷後一個叫 12/15 21:24
190F:→ chenyuchug : 大家跟著放空,文章還都會上色的 12/15 21:24
191F:推 jakkx : 你第一個問題,麻煩先查清楚。後面不用看下去了 12/15 21:24
192F:→ jakkx : 你就是在證明GIGO是怎麼一回事 12/15 21:25
193F:→ jakkx : 我猜很多人驚訝你居然不是反串 12/15 21:26
194F:→ aewul : 查資料好點處理器就好不用到超級電腦 12/15 21:29
195F:噓 chysh : 你是不是個人化設定沒有加要客觀回答的prompt 12/15 21:30
197F:→ BC0710 : 案也可以 看你想要哪一種答案而已 12/15 21:33
198F:推 bagaalo : 這篇大概是證明LLM跟AGI還是有一大段不同 12/15 21:58
199F:噓 Carloslin : 可憐 這就是先射箭後畫靶 12/15 22:08
200F:噓 joey00 : 請問 A 你這次段考會贏 B 嗎 12/15 22:09
201F:→ joey00 : A: 會,而且之後每次都會,我最強! 12/15 22:09
202F:→ joey00 : 已經拿五年全校第一的 B: ? 12/15 22:09
203F:推 gooddogleg : 就說你的空單哩 12/15 22:56
204F:推 a77942002 : 所以你知道現在鼓吹的AI真的是...不準確資料庫集合 12/15 23:13
205F:→ a77942002 : 體~笑 12/15 23:13
206F:→ netsphere : AI:你說的都對 12/15 23:18
207F:→ kipo1019 : 好,歐硬能源 12/15 23:22
208F:推 Pipline : 給你情緒價值的ai 12/15 23:31
209F:推 hohomonkey : 再好的車 斷手斷腳的人沒辦法看開 12/15 23:44
210F:推 Tsukasa0320 : 這篇文章應該放進教科書 12/15 23:59
211F:→ Tsukasa0320 : 提醒我們為什麼AI還不能取代研究 12/15 23:59
212F:→ A10 : 我建議你先學邏輯導論 先別管AI 12/16 00:33