Stock 板


LINE

剛看到半導體產業分析機構semianalysis的這篇新文章: https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is 雖然沒付費只能看到部分 bing摘要: 這篇文章的核心內容是分析人工智能伺服器的成本。文章指出,隨著數據中心建設的瘋狂 ,市場也隨之瘋狂。但是,有許多公司並不應該因此而受益。文章還提到,IT預算有限, 因此Nvidia銷售額的增長主要來自於購買較少的非GPU伺服器。文章中還提供了一個標準 CPU伺服器的成本分解,顯示內存佔伺服器成本的近40%。文章最後指出,在人工智能時代 ,普通伺服器的百分比將會下降,並且在數據中心轉向加速計算時,各組件的成本分配也 會發生重大變化。 分析cpu server和ai server的成分價格 概念不錯 https://i.imgur.com/mHf654R.png
但intel server沒把gpu+switch baseboard部分的價格抓出來來比 就說憶體幾乎是伺服器成本的40% 問號? --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.155.185 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1685369616.A.A84.html
1F:→ appledick : AI伺服器會走AWS那種營運模式啦,真以為每家公司自 05/29 22:17
2F:→ appledick : 己架設自己要的AI伺服器喔?頭殼壞才這樣搞,就連Op 05/29 22:17
3F:→ appledick : enAI 微軟都砸多少錢花了幾年 05/29 22:17
4F:推 YU1225 : 尬死空軍總部 05/29 22:17
5F:推 wingstar : 這篇文章的成本計算好奇妙, 05/29 22:17
6F:推 jiansu : 大老黃買越多(Gpu)省越多(cpu) 應該是真的server總 05/29 22:19
7F:→ jiansu : 數量可能下降 Ai server佔比大提升… 05/29 22:19
8F:推 Kleiza : 這樣GG是受益者還是受害者啊? 05/29 22:30
9F:推 ip102 : 把原本記憶體的費用轉向高速運算了 05/29 22:33
10F:推 Buddy : SmartNIC成本是過去的16倍 那間台廠不就賺爆 05/29 22:33
11F:推 popo123456 : 所以爽到韓國hbm記憶體 05/29 22:34
12F:→ william7713 : memory這麼貴是用CXL嗎... 這誰算的啊 05/29 22:36
13F:推 stosto : 爽到海力士 05/29 22:37
14F:推 easygo : 99旺宏 05/29 22:39
15F:推 nangaluchen : 最近確實這種論述蠻多的 05/29 22:39
16F:→ nangaluchen : 但這個論述的邏輯是有漏洞的 05/29 22:39
17F:→ nangaluchen : 基本上建立在AI伺服器和一般伺服器是替代品 05/29 22:39
18F:→ nangaluchen : 但其實並不是 05/29 22:39
19F:→ nangaluchen : 若一般伺服器能做到AI伺服器能做的事 05/29 22:39
20F:→ nangaluchen : 那不會有人願意買AI伺服器 05/29 22:39
21F:推 nangaluchen : 2023的預算已經訂了 短期確實會這樣搞 05/29 22:42
22F:→ nangaluchen : 但2024後 其實應該是整體資本支出往上噴 05/29 22:42
23F:→ nangaluchen : AI伺服器的資本支出是額外往上加的 05/29 22:42
24F:→ nangaluchen : 而非用於取代一般伺服器 05/29 22:42
25F:→ nangaluchen : 拿AI伺服器來做一般伺服器能做的事 05/29 22:44
26F:→ nangaluchen : 也很不合邏輯 05/29 22:44
27F:→ mooto : 老黃今天不是有說嗎 cpu伺服器又貴又耗能 你可以買 05/29 22:46
28F:→ mooto : 低階的gpu 一顆gpu就抵n顆cpu 這樣還是比較省阿 05/29 22:46
29F:推 nangaluchen : cpu跟gpu適合的任務是不同的 05/29 22:48
30F:→ nangaluchen : 如果gpu能完美取代cpu 那nv早年不會那麼慘 05/29 22:48
31F:→ nangaluchen : 很多東西不能只看算力和能耗 05/29 22:49
32F:推 saygogo : 狙擊槍跟散彈槍不能拿來比較 05/29 22:50
33F:→ mooto : 你講的是"伺服器" 你如果是要做其他用途 譬如儲存 05/29 22:50
34F:→ mooto : 你就買NAS阿 cpu當然不可能消失 只是在算力上面 05/29 22:51
35F:推 nfsong : 今天新的 gh200 直接存取記憶體用很兇 05/29 22:52
36F:→ nfsong : 低電壓記憶體 05/29 22:52
37F:→ nfsong : 特點是今天有賣高級switch 05/29 22:52
38F:→ nfsong : 而且全部走光纖 05/29 22:53
39F:→ mooto : gpu是更好的選擇 沒有人說不能買籃球鞋跑步 05/29 22:53
40F:→ nfsong : Spectrum-X 4奈米 05/29 22:53
41F:→ nfsong : 64port 800G光纖速度 05/29 22:54
42F:推 nangaluchen : 你搞錯意思了 一般伺服器也不會配備gpu 05/29 22:55
43F:→ nangaluchen : 兩顆cpu就能解決的事 何必多配gpu? 05/29 22:55
44F:→ nangaluchen : 特別是你加gpu 要拿來幹嘛? 05/29 22:55
45F:→ nangaluchen : 就沒適合的任務給他算啊 05/29 22:55
46F:→ nfsong : 順邊做網通 05/29 22:55
47F:推 aegis43210 : H100還是要用到SPR,i皇還是有得賺 05/29 22:56
48F:→ nangaluchen : 絕大部分的應用 根本不需要那麼高的算力 05/29 22:56
49F:→ nangaluchen : 反而是cpu更適合多功處理 取代個毛 05/29 22:56
50F:→ nfsong : DGX GH200 , 144TB 直接存取記憶體 !!! 05/29 22:57
51F:→ mooto : 已經沒人會叫兩顆cpu的機器伺服器了 那個是個人電腦 05/29 22:57
52F:→ nfsong : 1 ExaFLOPS 05/29 22:57
53F:→ nfsong : 一台大概2000多顆 記憶體顆粒 三家買 大概6000多個 05/29 22:58
54F:推 nangaluchen : 而且老實講啦 nv就最沒資格講低功耗 低成本 05/29 22:58
55F:→ nangaluchen : 就算不用ai chip 05/29 22:58
56F:→ nangaluchen : 消費級的gpu 也快跟server cpu差不多貴了 省個毛 05/29 22:58
57F:→ mooto : 你要抬槓就去抬槓吧 XD 誰不知道cpu的指令集更泛用 05/29 22:58
58F:→ nfsong : 其實還是個人電腦市場 的記憶體用量比較大 05/29 22:59
59F:→ mooto : 如果沒人care你說的這種應用要怎麼配置了 講難聽一 05/29 22:59
60F:→ mooto : 點就是很多x86能做的事情arm也能做 那你買手機還會 05/29 23:00
61F:→ mooto : 去想要怎麼配嗎 買PC還會去文書機怎麼組嗎 05/29 23:01
62F:推 nangaluchen : 目前絕大部分的伺服器 仍是配備2顆 05/29 23:01
63F:推 aegis43210 : 記憶體是輸家??未來CXL3.0普及就更需要大量記憶體, 05/29 23:02
64F:→ aegis43210 : 加上記憶體內運算是未來趨勢 05/29 23:02
65F:推 la8day : 記憶體 又是你 你最爛 05/29 23:03
66F:→ aegis43210 : 如果只是講Flash,那的確是輸家 05/29 23:03
67F:推 s860134 : 買越多越省錢 05/29 23:04
68F:→ nfsong : 恩 單一個GH200的小型server 576G的記憶體 05/29 23:04
69F:→ nfsong : 有1000多家合作廠商 人人買一台小型的 也不少 05/29 23:04
70F:→ nfsong : the more u buy the more u save指的是AI算力 05/29 23:05
71F:→ nfsong : 而且老黃今天說 算力還在往上衝 05/29 23:05
72F:→ nfsong : 要用傳統的server 跟他的cuda tensor cores 05/29 23:06
73F:→ nfsong : 已經被甩到看不到車尾燈了 05/29 23:06
74F:→ nfsong : 10年前就1台抵10台了 05/29 23:06
75F:→ mooto : 我不覺得flash會是輸家~別忘了flash成本下降也是很 05/29 23:07
76F:推 Kobe5210 : 感謝分享 05/29 23:07
77F:→ mooto : 快的 有個說法再5年 SSD就會取代傳統的HDD 05/29 23:07
78F:推 jiansu : 模型目前越來越大 記憶體需求增加 training 你限制 05/29 23:08
79F:→ jiansu : 只能用Nv 但目前還是有很多inference 用Cpu70%?, 05/29 23:08
80F:→ jiansu : chatgpt 給你用的就只是inference 如果一堆infer 05/29 23:08
81F:→ jiansu : ence都有Gpu或asic加速 確實server需求可能會降 05/29 23:08
82F:推 ben811018 : 伺服器要建置成本超高 05/29 23:08
83F:推 hihjktw : 我怎沒看到20T的SSD 05/29 23:09
84F:推 nangaluchen : 目前 llm inference 也是用 ai server 05/29 23:10
85F:→ nangaluchen : 只是不用配到H100 但主流應仍配備A100 05/29 23:10
86F:→ bobjohns : 看起來 三星記憶體又要大賺 晶圓代工滿血復活。 05/29 23:13
87F:→ mooto : 你問這之前要不要先google....2年前就在賣100T了 05/29 23:14
88F:推 nfsong : 老黃除了拉抬gg一把 還救了三星和美光阿!! 05/29 23:17
89F:推 pisu : 目前伺服器類股都噴出 05/29 23:20
90F:噓 a000000000 : semianalysis的東西看看就好 不過也沒啥人認真研究 05/29 23:21
91F:→ a000000000 : 然後一樓那葛論點=糞 smci這一年多噴多少 05/29 23:21
92F:→ a000000000 : 4說原po尼到底有沒看他整篇 他下面94加ai卡的成本 05/29 23:23
93F:→ a000000000 : inference用cpu是牙膏的論點 05/29 23:24
94F:→ a000000000 : 牙膏說九成的ai行為是inference 然後inference 05/29 23:24
95F:→ susanmm : 基本上他就不是消費性電子產品 05/29 23:24
96F:→ a000000000 : 60%在cpu上面 05/29 23:25
97F:→ a000000000 : 詳細數據可能有些錯 不過牙膏那論點跟大便依樣 05/29 23:25
98F:推 FlynnZhang : 感謝教主開示 05/29 23:25
99F:→ a000000000 : 因為簡單的ai像照相抓人臉那種 手雞cpu就做掉惹 05/29 23:26
100F:→ a000000000 : 跟牙膏也無關 05/29 23:26
101F:→ mamorui : 美光真的感恩 上週快摸到75 香噴噴 05/29 23:26
102F:→ a000000000 : 接下來的時代重點是生成型ai會普及 運算需求爆炸 05/29 23:27
103F:→ a000000000 : 從server到手機 半導體需求也會大爆炸 05/29 23:27
104F:→ a000000000 : dram廠也會受惠 05/29 23:27
105F:→ neone : 謝教主哥提點 偶是被那空一欄不計誤導了 05/29 23:32
106F:→ TaiwanUp : 我快要知道金富力士等11個人如何可以製作貪婪之島 05/29 23:34
107F:→ bnn : 有在跑運算的 記憶體不會省 05/29 23:36
108F:→ bnn : 只能說 記憶體不是gating 也不會爆發多少 05/29 23:37
109F:推 julyjuly : $1T用小錢買麻花卷 再多也做一樣的事 就too much 05/29 23:37
110F:→ TaiwanUp : 一級玩家的綠洲看起來似乎也是由劇中哈勒戴一人製作 05/29 23:37
111F:推 Liberl : 定錨昨天就有說 用GPU做AI伺服器只是初步階段 05/29 23:50
112F:→ Liberl : 未來還是會回歸CPU 05/29 23:50
113F:推 madeinheaven: 未來AI運算還有MRAM記憶體內運算 三星已做出原型 05/29 23:52
114F:推 easyman : 所有扯到inference HW, 都要多吃RAM 05/30 00:00
115F:→ easyman : 不管是 notebook, 手機, 甚至 藍芽audio, GPS .. 05/30 00:00
116F:→ easyman : 這種小到不行的MCU要跑AI都要加RAM 05/30 00:03
117F:推 fortesv : 所以美國黃董會跟台灣惶懂合作嗎? 05/30 00:16
118F:推 b0117 : 我預估記憶體內運算至少還要等三年 05/30 00:18
119F:→ b0117 : AI列車早就開了,誰還跟你等記憶體內運算,而且SoC 05/30 00:20
120F:→ b0117 : 的command要不要變都還是個問題,PIM也會造成capac 05/30 00:20
121F:→ b0117 : ity下降 05/30 00:20
122F:→ b0117 : IO BW足夠支撐算力,其實PIM不見得是市場趨勢 05/30 00:22
123F:→ easyman : 記憶體內運算...你要確定model改了你還算得出來 05/30 00:25
124F:→ sachung28 : 很久前gpu吃浮點尾數的小問題不知改正沒有 舊cpu版 05/30 00:28
125F:→ sachung28 : 程式除非遇到嚴重效能瓶頸 修改的成本還是高 gpu推 05/30 00:28
126F:→ sachung28 : 了十多年才終於冒出頭 05/30 00:28
127F:→ sachung28 : 記憶體內運算記得也做好一陣子了 跟gpu/cpu二回事吧 05/30 00:30
128F:→ sachung28 : 那是省寫硬碟的時間 05/30 00:30
129F:推 b0117 : 不過dram需求一定會跟著AI發展水漲船高 05/30 00:50
130F:→ b0117 : 記憶體會是成本輸家?這邏輯我無法參透 05/30 00:51
131F:推 bring777 : 記憶體高階技術成本降不下來嗎?學一下晶片 05/30 01:02
132F:→ protoss : 記憶體內運算是啥意思?運算永遠在處理器裏吧...還是 05/30 02:54
133F:→ protoss : 說馮紐曼的架構大改了?頂多就把整顆硬碟塞進Ram... 05/30 02:55
134F:→ protoss : 就開機的時候特別久...不過記憶體分層發展至今應該 05/30 02:56
135F:→ protoss : 差不了那點IO了吧... 05/30 02:56
136F:→ protoss : 記憶體一直是效能的gating啊...不足就等著慢...不過 05/30 02:58
137F:→ protoss : 超過的確是不會爆發什麼...就是不卡系統運算天限... 05/30 02:59
138F:推 AmigoSin : 樓上PIM參考一下 05/30 04:00
139F:推 bj45566 : GDDR6-AiM -- SK hynix 在 ISSCC 2022 發表的論文(& 05/30 04:36
140F:→ bj45566 : 展示晶片),人類在半導體技術的進步將帶領電腦突破 05/30 04:36
141F:→ bj45566 : von Neumann bottleneck 05/30 04:36
142F:→ bj45566 : tinyurl.com/5n6unnby 05/30 04:38
143F:噓 kidd100 : 人工智慧 05/30 07:47
144F:推 awss1971 : https://i.imgur.com/X0Kto9H.jpg 05/30 07:58
145F:→ k85564 : 為啥是輸家? 因為%下降? 05/30 08:25
146F:→ k85564 : AI伺服器哪有可能回到CPU為主... 05/30 08:26
147F:推 zhi5566 : 雲端AI越來越強 手機有必要升級嗎? 不是都丟到雲嗎 05/30 08:49
148F:推 aegis43210 : 邊緣運算,因為資安因素,終端設備也要有一定算力 05/30 09:37
149F:推 b0117 : 邊緣運算市場一定會有,資安問題是一點。再來就是b 05/30 10:57
150F:→ b0117 : usiness問題,edge端的產品可以玩的公司比較多 05/30 10:57
151F:→ snoopy790428: 什麼都要訂閱一下以為人人受得了嗎 05/30 11:42
152F:推 mrWillyyang : 圖應該是一般server吧 一般的泛指沒裝GPU 05/30 12:52
153F:推 vodkalime607: 今天記憶體狂噴 ?? 05/31 09:21
154F:推 Petrovsky : ptt骨神超多 05/31 14:39







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:BuyTogether站內搜尋

TOP