作者wangrg (孤身不寂寞)
看板Stock
標題Re: [新聞] Google 最新 Gemini 3 模型正式推出!即
時間Wed Nov 19 23:51:19 2025
※ 引述《longtimens (阿捲)》之銘言:
: 講那麼多吹的天花亂墜
: 到底可以變現多少?
: 還是看不出來可以產出多少利潤啊
: 完全看不出來可獲利的商業模式是什麼?
: 塞廣告嗎?靠訂閱真的有辦法撐起這樣的投入金額嗎?
: 除非成本真的往下殺,不然怎麼看都是虧啊
引用
https://news.cnyes.com/news/id/6242913
節錄『重點』
Gemini 3.0 Pro 是基於 谷歌 自研的 張量處理單元(TPU) 訓練而成。
相較於 CPU 或通用 GPU,TPU 在處理大語言模型所需的大規模計算時速度更快,
且配備的大容量高頻寬記憶體能高效運行超大模型與批量資料,使 谷歌 在訓練
硬體上無需苦苦等待外部供應,實現了晶片的跨越式發展。
結論:
這對nvda不算個好消息,畢竟證明了『不使用他家的GPU』可以訓練出頂級模型
--
│ ███ ▂▄▃
││││
│ ˋ ◤ ◥││││ 「為什麼
,
│ ‵ ◤ ◥▏ _▂▁ ▋
│││ 為什麼又收到卡片了
│ ′ 、▌█
▊▉▏ │ 哭哭
……
…」
◢ ◤◢
◣▋◢ █
▋▊ ▕▅▇
◥◥*
◢ ▂▇ˋ█▆◤
▂_ ▁▄▆▇▃ copy from mooncats
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 85.237.207.52 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1763567481.A.D6A.html
1F:噓 D600dust : 你回完就開始A了 11/19 23:52
2F:推 KTFGU : 老黃GG ,沒人要買GPU訓練了 11/19 23:53
3F:推 goodevening : nvda 的gpu就是通用模型阿,啥都可以跑,tpu就很限 11/19 23:55
4F:→ goodevening : 定了,出發點本來就不同 11/19 23:55
5F:推 yousking : 開高走低明天就白刃戰了XD 11/19 23:55
6F:→ YU0121 : 還有個npu 你沒提到 11/19 23:56
7F:推 taihsin : 需求減少 對nvda肯定不是好事 11/19 23:59
8F:推 abc21086999 : 你是不是不知道自己在說什麼XD 11/19 23:59
9F:推 a210510 : 谷歌牛逼 靠自己就能跟NV對打 11/20 00:00
10F:推 partsex : tpu就是一種ASIC 11/20 00:00
11F:→ partsex : 沒這麼多新奇 11/20 00:00
12F:→ partsex : 一樣要和AVGO一起設計 11/20 00:00
13F:推 windfeather : 目前AI的未來性還有不少質疑 11/20 00:01
14F:→ windfeather : 多幾個人一起衝,比只有一隻領頭羊要好多了 11/20 00:01
15F:推 partsex : GPU可以訓練自駕車 也可以訓練LLM 11/20 00:02
16F:→ partsex : TPU就是專用特定任務而已 通用性不夠 11/20 00:03
17F:→ heavensun : 估狗當然不願受制於輝達 搞自己的路 11/20 00:06
18F:→ heavensun : 老黃要降價 阻止大家研發替代方案 11/20 00:06
19F:推 xhs : 台灣設計tpu的公司,好像沒辦法參與google 11/20 00:07
21F:推 zxcvbnm2010 : 有你這篇文 我就放心了 11/20 00:12
22F:→ partsex : 希望NVDA財報後 大盤崩盤 不然就先反彈一天 在崩盤 11/20 00:19
23F:→ ookimoo : 1.假AI就是演算法的演進而已.. 11/20 00:23
24F:→ ookimoo : 2.NV會回30元 11/20 00:23
25F:推 Brioni : AMD還沒能跟NV一較高下就來了個新王者 11/20 00:24
26F:→ ookimoo : 3.Gemini的領先只是賽馬局 某批馬暫時領先 11/20 00:25
27F:推 heavensun : Google是降低GPU使用數量 省錢部分演算挪去TPU 11/20 00:26
28F:推 redbeanbread: 多一些東西 多一點泡沫 11/20 00:28
29F:推 hotbeat : 別忘了台積產能滿載… 11/20 00:28
30F:推 Brioni : 奧特曼半年內拿不出屌的這1兆美元趴踢就結束了 11/20 00:29
31F:→ ifay : 明天開高走低 11/20 00:33
32F:推 Heptagram : TPU AlphaGo時代就有在用 但是只租不賣 不普及 11/20 00:49
33F:→ strlen : Google落後了快六個月才領先一點 你就說TPU可取代.. 11/20 00:52
34F:→ strlen : 過兩天又什麼模型刷榜了 是不是TPU又沒用惹XD 11/20 00:53
35F:推 zero7810 : 你這樣說就表示你真的不懂啊 11/20 01:04
36F:推 a28200266 : 也只有google能這麼搞就是了 11/20 01:08
37F:推 lulululula : LMarena前幾個月是gemini2.5霸榜前幾天grok才被拉下 11/20 01:13
38F:→ lulululula : 去的好嗎 11/20 01:13
39F:推 h0103661 : gemini什麼時候霸過了,一直都是偏笨的那一團 11/20 01:17
40F:→ fitenessboyz: 這麼晚了還有娛樂文出來 11/20 01:19
41F:推 csghuuguh : 你的結論基本是屁話,不用NV的晶片要付出什麼代價和 11/20 01:21
42F:→ csghuuguh : 風險? 11/20 01:21
43F:推 w28103566 : 好,別賣給他 11/20 01:52
44F:推 chanel1259 : 好了啊你們都要用台積電對吧 11/20 02:00
45F:推 bannasung : 明天創意會噴嗎 11/20 02:03
46F:噓 beagle2001 : Dipshit 最強 11/20 02:17
47F:推 MyKal1001 : Tpu 要綁Google生態系 沒那麼容易 11/20 02:48
48F:→ mtmmy : 反正這篇會自刪 11/20 05:23
49F:推 BeamRay : 但剛才財報570b欸,比超扯高的預期還高 11/20 05:34
50F:推 keven92110 : tpu也可以訓練嗎 我以為比較能跑推理 11/20 06:02
51F:→ fallinlove15: 以後要走矽光子 這差距會變小 11/20 06:51
52F:→ fallinlove15: 我覺得TPU是小事 重點是谷歌有自己研發的能力 加上 11/20 06:53
53F:→ fallinlove15: 自有龐大生態鏈 這才是對NV最大的威脅 不過這也只 11/20 06:53
54F:→ fallinlove15: 限電腦生態 其他領域還多的是機會 11/20 06:53
55F:→ mdkn35 : 都漲一倍了 以後開始賣tpu 11/20 07:09
56F:噓 FireStarman : 這篇某些蠢空真的沒救 11/20 07:24
57F:推 beforelin : 大高高超大批量 11/20 07:51
58F:推 downtoearth : 對NV不是好消息 但對於整個AI的未來是好消息 11/20 09:16
59F:→ downtoearth : 只有一個生態 從來都不是健康的 11/20 09:16
60F:推 henrylin8086: G社有足夠大的體量自己幹軟硬體,而且硬體規格抓在 11/20 09:19
61F:→ henrylin8086: 自己手上,愛怎麼魔改就怎麼魔改。 11/20 09:19
62F:→ annboy : Google TPU 做好多代了 11/20 09:21
63F:噓 edison106 : 估狗tpu 搞十幾年了 其他家可沒有這底蘊 11/20 12:33
64F:推 lasekoutkast: 百家爭鳴是好事啊 11/20 13:24
65F:→ sonatafm2 : 這對AI發展來講是好事 有競爭才會有進步 而且各有 11/21 00:00
66F:→ sonatafm2 : 優劣 11/21 00:00