作者Lushen (pttlushen)
看板Stock
标题Re: [新闻] 减少依赖辉达 传微软将推自研首款AI晶片
时间Sat Oct 7 21:49:43 2023
上次台裔Google科学家纪怀新Ed H. Chi (L9)来台湾接受访问的时候就有谈到这个:
今天记者会上,纪怀新也解密,其实 Google 在训练 AI 时,100% 使用的都是自家的
TPU,「Google 很早就在 AI 领域投入了大量资源,包括硬体,包括里头的数学、算法等
,这些都是我们的强项。」
Google 2023 最新的论文
TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with
Hardware Support for Embeddings
Abstract
1.2x–1.7x faster and uses
1.3x–1.9x less power than the Nvidia A100
大公司自己搞这些东西没问题
没资源搞这些有的没的 还是只能跟Nvidia买没冲突
至於什麽生态
大公司完全可以自己在公司搞一套自己专用的工具
进来的人自然会想办法学会这套工具怎麽用
https://www.inside.com.tw/article/32510-Google-Bard-Ed
微软要搞铲子好啊
还是只能找台积电代工
代工铲子94舒服
※ 引述《jerrychuang ()》之铭言:
: 原文标题:
: 减少依赖辉达 传微软将推自研首款AI晶片
: 原文连结:
: https://ec.ltn.com.tw/article/breakingnews/4451397
: 发布时间:
: 2023/10/07 11:13
: 记者署名:
: 原文内容:
: 〔财经频道/综合报导〕根据《The Information》报导,微软(Microsoft)可能下个月
: 在其年度开发者大会上,推出首款专为人工智慧 (AI)设计的晶片。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.249.84.25 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1696686585.A.9F4.html
1F:→ Leo4891 : 台积电都说AI只占6%了 占比拉不高没啥用 10/07 21:50
2F:→ jerrylin : 找台积电代工10元晶片卖100元 这生意哪里不能做 10/07 21:52
※ 编辑: Lushen (111.249.84.25 台湾), 10/07/2023 21:55:23
3F:→ payneblue : AI就初期而已 是多高占比 6%不是钱 没啥用 甚麽逻辑 10/07 21:54
4F:→ zerro7 : 台积电不是说努力在扩充CoWas产能 之後只会更高吧 10/07 21:56
5F:推 zerro7 : CoWoS 10/07 22:00
6F:→ aegis43210 : GG喜欢标准化SOC的单,这种客制化晶片的单量很少 10/07 22:11
7F:→ aegis43210 : 才领先A100的能效比1.9倍,TPU可是ASIC,这样其实蛮 10/07 22:14
8F:→ aegis43210 : 差的 10/07 22:14
9F:推 henry2003061: 现在6% 未来10年变几% 有些人只看了到这一两年 10/07 22:17
10F:嘘 jerrychuang : 现在铲子会贵是因为稀有跟专用,不是因为铲子真的很 10/07 22:21
11F:→ jerrychuang : 厉害啊 10/07 22:21
12F:推 rrroooqqq : 挖不到黄金铲子就没用了,看看元宇宙... 10/07 22:43
13F:→ scum5566 : ai终究会平价化 10/07 22:49
14F:推 roseritter : 我先用强大算力冲了再说,抢时间啊 10/07 23:56
15F:→ darktasi : Ai终究会泡沫化 10/08 00:23
16F:→ enso : gpu的设计本来就不是AI。只是有个Cuda方便开发,这 10/08 00:56
17F:→ enso : 才是NV胜出的原因。不然Intel与AMD都有gpu 啊 10/08 00:56
18F:嘘 a000000000 : 去年之前估狗在内部推tpu都推不太起来喇 10/08 02:18
19F:→ a000000000 : 自研=超封闭环境=跳槽不友善 10/08 02:19
20F:嘘 a000000000 : 今年裁员不知道那些AI仔会不会乖一点 10/08 02:21
21F:→ a000000000 : 然後这时点估狗吹说他tpu多有远见也没意义 10/08 02:22
22F:→ a000000000 : 因为LLM大爆发根本没啥人预期得到 包含老黄 10/08 02:22
23F:→ a000000000 : 老黄要是知道 h100就不会只给80G hbm惹 10/08 02:23
24F:推 rkilo : 比赢A100有什麽好说嘴的 10/08 07:55
25F:推 ajkofqq : 雀食 10/08 08:27
26F:推 jatj : 某 又来了 10/08 09:44
27F:→ aegis43210 : 所以老黄紧急做了一个gh200出来,不过i皇、苏嬷针对 10/08 12:04
28F:→ aegis43210 : 性LLM的新架构要等2025了 10/08 12:04
29F:推 lavign : 实验训练AI模型,TPU效能比GPU差劲60倍 10/08 13:25
30F:嘘 richaad : 看人说啥就吸收啥,看看业绩才是真的 10/08 16:40
31F:→ dragonjj : 明年B100就出来了 会有几G HBM? 美光耀重返荣耀? 10/08 22:09