Stock 板


LINE

※ 引述《ynlin1996 (.)》之铭言: : 原文标题: : AI晶片竞争开跑,谷歌公布第四代TPU,宣称比辉达A100晶片更快更节能 : 原文连结: : https://bit.ly/3meYAG8 : 发布时间: : 2023.4.6 : 记者署名: : 茋郁 : 原文内容: : 谷歌於2023年4月5日公布了其用於训练AI模型的超级电脑的新细节,称该系统比辉达的同类型系统A100更快、更节能。虽然现今大多数涉足AI领域的公司的处理能力都来自辉达的晶片,但谷歌设计自己客制化晶片Tensor Processing Unit(TPU)期望能够推动其在AI研究。 : 谷歌是在COVID-19大流行高峰期间宣布了其Tensor晶片,当时从电子到汽车的企业面临晶片短缺的困境。由於谷歌看到苹果在客制化晶片的投入,帮助了iPhone以及其他产品的开发。因此最初该晶片是为其Pixel智慧型手机提供动力,可是历经几年之後,谷歌将TPU延伸至更多领域,可见得其开发方面取得了长足的进步。 : 如今谷歌90%以上的AI训练工作都使用这些晶片,即通过模型提供数据的过程,使它们在诸如类似人类的文字查询或生成影像等任务中发挥作用。 : 谷歌TPU现在已经是第四代了。之所以世代晶片发展那麽迅速的关键在於,谷歌使用AI来设计其TPU晶片。谷歌声称,与人类花费数月时间设计晶片相比,使用AI设计晶片仅需要6小时即可完成设计过程。 : 一旦采用AI设计晶片,产品迭代都在迅速发生,这就是TPU进入第四代的原因。未来随着生成式AI的快速发展,将造成大型语言模型的规模呈现爆炸式成长,这意味着它们太大而无法储存在单颗晶片上。所以谷歌客制化开发的光讯号交换器将4,000多颗晶片串在一起成为一台超级电脑,以帮助连接各个机器。此外,微软也是将晶片拼接在一起以满足OpenAI的研究需求。 : 谷歌指出,PaLM模型——其迄今为止最大的公开披露的语言模型——通过在50天内将其拆分到4,000颗晶片超级电脑中的两个来进行训练。更重要的是,其超级电脑可以轻松地动态重新配置晶片之间的连接,有助於避免出现问题并进行调整以提高性能。 : 谷歌除了自己使用TPU之外,一家新创公司Midjourney使用该系统训练其模型,该模型在输入几句文字後即可生成新影像。 : 可是谷歌并没有将其第四代晶片与辉达目前的旗舰H100晶片进行比较。谷歌暗示它可能正在开发一种新的TPU,它将与辉达H100展开竞争。 : 总之,随着生成式AI的崛起,AI晶片的开发脚步将成为下一个厂商积极介入的领域,以抢夺未来商机。 : 心得/评论: : Google公布第四代TPU,并宣称比NVIDIA A100更快更节能,其客户Midjourney利用TPU训练其模型再输入文字後生成图片。 周末下班闲聊, 发现tech版没有这篇文章, 那就在这里讨论好了, 其实我说的东西都是网路 google+wiki 就有的东西, 先简单说明一下现代化的ML DeepLearning的基本概念, 其实就是用暴力法把整个model 放进去 GPU/TPU 里头training/inference, 这会有两个最大的限制, 硬体速度跟GPU/TPU记忆体容量, 硬体太慢跑不动或跑太久, GPU/TPU记忆体容量太小的话是连跑都不能跑, 我几年前在板上分享的TQQQ DeepLearning 预测股价的模型, 需要8GB 的 GPU VRAM 维基小百科之後就回到主题: ChatGPT, 目前所有的聊天机器人模型通通都是LLM, https://en.wikipedia.org/wiki/Wikipedia:Large_language_models GPT-3 需要VRAM 175GB, 股歌微软OpenAI 这几家的模型一定远远超过这个大小, 大上数百倍都有可能, 我是做硬体晶片的, 不要问我model 这块的问题, 所以现在这些聊天机器人模型最大的问题是整个系统无法塞下model training, 所以这篇文章的重点在这句话: "谷歌客制化开发的光讯号交换器将4,000多颗晶片串在一起", 只能这麽做才有办法塞下这麽大的model training, Nvidia 也有类似的技术叫做 NVLink, 可以把电脑上数个Nvidia 显卡串联运算, 但是如果模型大到一台电脑显卡全部插满都塞不下运算的话, 我就不知道Nvidia 如何解决, 但是我相信Nvidia 一定有解决的方法 所以现在问题已经提升到整个系统端, 而不是我的晶片跑多快这麽简单的问题, 软体跟模型要如何切割如何分配塞入多台超级电脑, 硬体方面如何塞入最大的模型做运算 说个题外话, 我几年前做了一个project, AI 晶片与系统研发的project, 最近拿到公司的大奖, 不是新闻这个TPU, 我跟开发model 的对口同事讨论过, 是否能够拿我们开发的这个系统来跑Chat model, 得到答案是否定的, 至少现阶段还无法做到, 原因很简单, VRAM 不够大, 塞不下model, 但是他们model 部门也有在想办法要细切 model 看可不可以塞进去这个系统, 所以速度已经不是最重要的考量了, 至於速度, 两年前应该是全世界最快的晶片+系统, 可惜 VRAM 不够大, 原本运用方向就不是要做chat --
QR Code



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 24.5.140.41 (美国)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1680851343.A.8CF.html
1F:推 c928 : 太专业了 04/07 15:14
2F:推 summer08818 : 一台电脑塞不下换一个机房塞不塞得下 我现在在弄XD 04/07 15:17
整个机房就需要switch 串联 GPU/TPU, 也就是原文里头说的客制化开发的光讯号交换器, 不然你无法做到多台电脑同步运算同一model, 另外一个做法就是用纯软体的方式细切model 分别塞到个别机器, 也就是我的对口同事正在尝试要做的solution ※ 编辑: waitrop (24.5.140.41 美国), 04/07/2023 15:20:49
3F:推 jagger : 推 04/07 15:24
4F:推 roseritter : 分别塞 细切的方案感觉成本比较省 04/07 15:29
5F:→ acininder : 内行的就知道 大模型最重要的其实是VRAM而非速度 04/07 15:30
6F:→ roseritter : 想起古早56K年代 用PC帮忙解外星人的project 04/07 15:30
7F:→ acininder : transformer系的瓶颈都是记忆体墙 04/07 15:30
8F:推 LieTo : 用NVSwitch or IB(InfiniBand) 04/07 15:30
9F:→ acininder : 包含记忆体容量和存取速度 运算速度反而是其次 04/07 15:31
10F:推 wahaha711233: 类似脑细胞神经连结 30年前的超大电脑又回来了 04/07 15:33
公司内部的project 内容不能说太多, 我只能说在电脑历史上单一超级电脑或是分散运算小电脑, 这两个方向已经吵了五六十年以上, 目前Chat model 的确是只有单一超级电脑才能运算, 但是我相信以後一定有解决方法可以用分散运算小电脑, 当年我在做这个AI project的时候, 也是公司两派立场的争论: 单一超级或是分散小电脑, 我的project 的研发方向是用分散运算方式去解决AI问题, 可是现在卡关在chat model, 但是我相信未来一定是分散运算的方式, 因为观看人类电脑历史, 没有例外都是分散运算小电脑最後得到胜利
11F:→ acininder : 不过微软提供给openai的解决方案不是NVlink 04/07 15:36
12F:→ acininder : 而是用InfiniBand把几万张A100串起来 04/07 15:36
※ 编辑: waitrop (24.5.140.41 美国), 04/07/2023 15:44:32 ※ 编辑: waitrop (24.5.140.41 美国), 04/07/2023 15:45:24
13F:推 speculator : 比较好奇文中说的AI设计晶片是不是真的? 04/07 15:55
14F:推 aegis43210 : AI设计晶片应该指的是软体定义晶片,也就是Coarse G 04/07 16:11
15F:→ aegis43210 : rained Reconfigurable Arra,目前这块最成功的是思 04/07 16:11
16F:→ aegis43210 : 科,其网路交换器及虚拟化处理器都有用到类似架构 04/07 16:11
17F:推 donkilu : 分散运算要面对资料传输的瓶颈 也有它本身的限制 04/07 16:11
18F:推 wrt : NV之前买下mellanox 04/07 16:12
19F:→ wrt : 可以把多台server用网卡串起来 04/07 16:12
20F:推 donkilu : 短期内搞研究的还是要用类超级电脑 分散运算我觉得 04/07 16:15
21F:→ donkilu : 是用在一些比较成熟的状况 例如iphone pixel的model 04/07 16:16
22F:推 aegis43210 : Graphcore的IPU也是走单一超级电脑路线,x86阵营则 04/07 16:17
23F:→ aegis43210 : 是尝试用新一代AMX指令集来抢食训练大饼,目前是期 04/07 16:17
24F:→ aegis43210 : 待我国新创公司能在AI推理有所成果 04/07 16:17
25F:推 donkilu : 毕竟training目前看起来还是需要大力出奇蹟... 04/07 16:20
26F:推 DB2 : 就说了是比系统不是比晶片,原文推文一堆外行 04/07 16:22
27F:→ acake : 感谢分享 04/07 16:24
28F:推 gs13010 : 其实NV也已经布局switch了,mellanox 就是做IB连结 04/07 16:29
29F:→ gs13010 : 的公司 04/07 16:29
30F:推 g0428168 : NV的DGX其实应该就有用Mallanox Switch去串全部机台 04/07 16:52
31F:推 Chilloutt : 大频宽的光交换器准备要商转了,不怕啦 04/07 17:48
32F:推 roserule : 问个笨问题 TSLA 不是有个 DoJo超级电脑? 是不是 04/07 18:48
33F:→ roserule : 跟文中所提的超级电脑同一个类别? 04/07 18:48
34F:推 soar625 : 很专业,所以可以买啥标的 04/07 19:22
Nvidia跟谷歌, 只有这两家可以做出chat 的系统, 只是Nvidia 真的股价有点高
35F:→ sleeplist : 请问版上乡民,像现在高通的晶片,也可以直接作出 04/07 19:26
36F:→ sleeplist : GPU 使用目前最重要的AI类功能吗,还是说仍然必须 04/07 19:26
37F:→ sleeplist : 使用到 Nvidia的技术? 04/07 19:27
38F:→ sleeplist : 也就是是否就算用高通晶片作出 GPU,也会因为因为 04/07 19:27
39F:→ sleeplist : Nvidia的某些架构或者特殊技术,所以没办法用? 04/07 19:27
40F:→ sleeplist : 而且高通这晶片其实去年4月就现市了 04/07 19:38
41F:→ sleeplist : 我实在不太清楚目前这些是都能直接用还是有架构问题 04/07 19:39
42F:推 nkfish : 推个解释的连文组也能懂 04/07 22:27
※ 编辑: waitrop (24.5.140.41 美国), 04/08/2023 09:43:38
43F:推 cmshow : 推好人分享 04/08 11:14
44F:推 cloudofsky : 推 04/08 13:33
45F:推 stlinman : 推,分享! 04/08 15:50
46F:→ stlinman : 算力的价值建立在产出吧,觉得可以从AI产出去找股票 04/08 15:50
47F:推 noddle : 推分享 04/08 18:21
48F:推 TimoBall : 高通 edge 端 inference 可以吧 你的手机不知道跑多 08/23 19:25
49F:→ TimoBall : 少 ai model 08/23 19:25
50F:→ TimoBall : nv 除了硬体, cuda 也从另一种层面让 application 08/23 19:27
51F:→ TimoBall : 绑他 08/23 19:27
52F:→ TimoBall : amd 还要抄他们 lib 苦苦追赶 08/23 19:27







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:iOS站内搜寻

TOP