作者Lushen (pttlushen)
看板Stock
標題Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片
時間Sat Oct 7 21:49:43 2023
上次台裔Google科學家紀懷新Ed H. Chi (L9)來台灣接受訪問的時候就有談到這個:
今天記者會上,紀懷新也解密,其實 Google 在訓練 AI 時,100% 使用的都是自家的
TPU,「Google 很早就在 AI 領域投入了大量資源,包括硬體,包括裡頭的數學、算法等
,這些都是我們的強項。」
Google 2023 最新的論文
TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with
Hardware Support for Embeddings
Abstract
1.2x–1.7x faster and uses
1.3x–1.9x less power than the Nvidia A100
大公司自己搞這些東西沒問題
沒資源搞這些有的沒的 還是只能跟Nvidia買沒衝突
至於什麼生態
大公司完全可以自己在公司搞一套自己專用的工具
進來的人自然會想辦法學會這套工具怎麼用
https://www.inside.com.tw/article/32510-Google-Bard-Ed
微軟要搞鏟子好啊
還是只能找台積電代工
代工鏟子94舒服
※ 引述《jerrychuang ()》之銘言:
: 原文標題:
: 減少依賴輝達 傳微軟將推自研首款AI晶片
: 原文連結:
: https://ec.ltn.com.tw/article/breakingnews/4451397
: 發布時間:
: 2023/10/07 11:13
: 記者署名:
: 原文內容:
: 〔財經頻道/綜合報導〕根據《The Information》報導,微軟(Microsoft)可能下個月
: 在其年度開發者大會上,推出首款專為人工智慧 (AI)設計的晶片。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.84.25 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1696686585.A.9F4.html
1F:→ Leo4891 : 台積電都說AI只佔6%了 占比拉不高沒啥用 10/07 21:50
2F:→ jerrylin : 找台積電代工10元晶片賣100元 這生意哪裡不能做 10/07 21:52
※ 編輯: Lushen (111.249.84.25 臺灣), 10/07/2023 21:55:23
3F:→ payneblue : AI就初期而已 是多高占比 6%不是錢 沒啥用 甚麼邏輯 10/07 21:54
4F:→ zerro7 : 台積電不是說努力在擴充CoWas產能 之後只會更高吧 10/07 21:56
5F:推 zerro7 : CoWoS 10/07 22:00
6F:→ aegis43210 : GG喜歡標準化SOC的單,這種客製化晶片的單量很少 10/07 22:11
7F:→ aegis43210 : 才領先A100的能效比1.9倍,TPU可是ASIC,這樣其實蠻 10/07 22:14
8F:→ aegis43210 : 差的 10/07 22:14
9F:推 henry2003061: 現在6% 未來10年變幾% 有些人只看了到這一兩年 10/07 22:17
10F:噓 jerrychuang : 現在鏟子會貴是因為稀有跟專用,不是因為鏟子真的很 10/07 22:21
11F:→ jerrychuang : 厲害啊 10/07 22:21
12F:推 rrroooqqq : 挖不到黃金鏟子就沒用了,看看元宇宙... 10/07 22:43
13F:→ scum5566 : ai終究會平價化 10/07 22:49
14F:推 roseritter : 我先用強大算力衝了再說,搶時間啊 10/07 23:56
15F:→ darktasi : Ai終究會泡沫化 10/08 00:23
16F:→ enso : gpu的設計本來就不是AI。只是有個Cuda方便開發,這 10/08 00:56
17F:→ enso : 才是NV勝出的原因。不然Intel與AMD都有gpu 啊 10/08 00:56
18F:噓 a000000000 : 去年之前估狗在內部推tpu都推不太起來喇 10/08 02:18
19F:→ a000000000 : 自研=超封閉環境=跳槽不友善 10/08 02:19
20F:噓 a000000000 : 今年裁員不知道那些AI仔會不會乖一點 10/08 02:21
21F:→ a000000000 : 然後這時點估狗吹說他tpu多有遠見也沒意義 10/08 02:22
22F:→ a000000000 : 因為LLM大爆發根本沒啥人預期得到 包含老黃 10/08 02:22
23F:→ a000000000 : 老黃要是知道 h100就不會只給80G hbm惹 10/08 02:23
24F:推 rkilo : 比贏A100有什麼好說嘴的 10/08 07:55
25F:推 ajkofqq : 雀食 10/08 08:27
26F:推 jatj : 某 又來了 10/08 09:44
27F:→ aegis43210 : 所以老黃緊急做了一個gh200出來,不過i皇、蘇嬤針對 10/08 12:04
28F:→ aegis43210 : 性LLM的新架構要等2025了 10/08 12:04
29F:推 lavign : 實驗訓練AI模型,TPU效能比GPU差勁60倍 10/08 13:25
30F:噓 richaad : 看人說啥就吸收啥,看看業績才是真的 10/08 16:40
31F:→ dragonjj : 明年B100就出來了 會有幾G HBM? 美光耀重返榮耀? 10/08 22:09