作者stpiknow (H)
看板Tech_Job
標題[新聞] 輝達以全面布局AI處理器之姿,推出H200以
時間Fri Nov 17 16:15:53 2023
輝達以全面布局AI處理器之姿,推出H200以及專為中國設計的AI解決方案
https://bit.ly/3QHsRZs
全球最有價值的晶片製造商輝達(Nvidia)公司正在更新其H100人工智慧處理器,為產品
增添更多功能,從而鞏固了其在AI運算市場的主導地位。如今輝達於11月13日表示,其預
計2024年第二季推出H200的新型號,其將使用高頻寬記憶體(HBM3e),能夠更好地應對
開發和執行AI所需的大型數據集。
簡單來說,除了記憶體之外,H200與H100基本相同。 但對其記憶體的改變帶來了有意義
的升級。H200首次使用HBM3e,這使得GPU的記憶體頻寬從H100 的每秒3.35 TB提高到4.8
TB,總記憶體容量從前代產品的80GB提高到141GB。
透過新產品,輝達正試圖跟上用於創建AI模型和服務的資料集規模。所以加入增強的記憶
體功能將使H200應對帶有數據的軟體時,速度更快,這是訓練AI執行辨識影像和語音等任
務的過最主要過程。
亞馬遜公司的AWS、Alphabet公司的谷歌雲端、微軟和甲骨文公司的雲端基礎設施都承諾
從2024年開始使用這款新晶片。
Wolfe研究公司表示,輝達通常不會更新其數據中心處理器,這一次的更新,進一步證明
輝達正在加快產品節奏,以應對AI市場的成長和性能要求,也可擴大輝達和競爭者之間的
差距。例如:超微將於2023年第四季將MI300晶片推向市場,而英特爾則聲稱其Gaudi 2型
號比H100更快。
從價格角度來看,鑑於新版本性能的提高,該公司可能會要求更高的價格。根據報告指出
,H100的零售價格估計為每顆25,000至40,000美元。那麼可想而知的是,H200將比這一價
格還高。
2024年對於GPU買家來說將是一個更有利的時期。因為輝達原本計劃在2024 年將H100的產
量增加三倍以上。目標是明年將產量從2023年的約50萬顆增加200萬顆。如今H200的出現
,以及超微的加入戰局,將可讓仍具有爆炸性成長的生成式AI,無論GPU在質和量上都雙
重增加。
輝達除了滿足除了中國以外市場的需求外,也針對不斷變化的美國限制法規,又再一次開
發專為中國客製化的新AI晶片系列。根據現在獲得之資訊,面向中國的新晶片有三種配置
,分別為 H20、L20和L2。
根據 Bernstein Research 的分析,H20將是三者中最強大的,即是如此也將無需向美國
申請出口授權。更不用談L20和L2等兩款效能較低的晶片了。
對於輝達來說,由於其晶片相關的軟體是AI開發領域最先進、最強大的軟體之一,這是吸
引中國雲端業者的致命關鍵之一。即使有華為積極搶奪輝達在中國的AI晶片市場,但輝達
只要持續推出產品,其仍有機會持續維持一定地位。
總之,輝達正以全面布局之姿,想持續主導AI晶片。短期幾年看起來,輝達仍占據很大優
勢,其他廠商要競爭仍有一段不小差距呢!
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Tech_Job/M.1700208955.A.20C.html
1F:推 MagicGpon : 漲? 11/17 16:20
2F:推 gn01660293 : 噴爆 11/17 17:18
3F:推 by19 : 賺爛了 11/17 19:45
4F:→ labell : 懷疑AI這隻會自我審查 11/18 09:22