Stock 板


LINE

原文标题: 深度好文 | 垄断AI算力90%的市场,英伟达帝国却已出现第一道裂缝 原文连结: 来源富途 以下已经转繁体 https://reurl.cc/QXnd82 发布时间: 2023/5/21 11:42 记者署名: 远川研究所 原文内容: 尽管英伟达目前凭藉GPU+NVlink+CUDA垄断了AI算力90%的市场,但帝国已经出现了第一道 裂缝。 2012年,AI圈发生了两件大事,按时间顺序,第一件是谷歌组团已久的Google Brain发布 “出道作”——一个能够识别猫的深度学习网路“谷歌猫”,74.8%的识别准确率,比知 名识别图像大赛ImageNet前一年获胜演算法的74%还要高出0.8%。 但谷歌的高光时刻只持续了几个月。2012年12月,最新一届ImageNet的获胜者出炉,深度 学习大神Hinton及其弟子带着卷积神经网路AlexNet,将识别正确率一举提高到了84%,由 此开启了之後十年的AI革命,谷歌猫则被埋进了历史的尘埃之中。 让业内震惊的不只是ImageNet模型本身。这个需要1400万张图片、总计262千万亿次浮点 运算训练的神经网路,一个星期的训练过程中仅用了四颗英伟达Geforce GTX 580。作为 参考,谷歌猫用了1000万张图片、16000颗CPU、1000台电脑[1]。 传言Google在这一年也秘密参加了比赛,其受到的震撼直接体现在接下来的行动上: Google一边豪掷了4400万美元收购了Hinton团队,一边马上向英伟达下单大量GPU用来人 工智慧训练,而且同时“扫货”的还有微软、Facebook等一众巨头。 英伟达成为最大的赢家,股价在接下10年里最高涨了121倍。一个帝国诞生了。 但帝国的上空,逐渐聚拢了两朵乌云。当年向英伟达扫货的Google,在三年後携AlphaGo 惊艳亮相,并在2017年击败了人类冠军柯洁。敏锐的人发现,驱动AlphaGo的晶片不再是 英伟达的GPU,而是Google自研的TPU晶片。 再过三年,相似剧情重演。曾经被黄仁勳一度视为标杆客户的特斯拉也告别英伟达GPU, 先是推出了以NPU为核心的FSD车载晶片,然後又拿出了用来搭建AI训练集群的D1晶片—— 这意味着英伟达接连里失去了AI时代里两个最重要的客户。 到了2022年,全球IT周期进入下行阶段,云计算大厂纷纷削减资料中心的GPU采购预算, 区块链挖矿大潮也逐渐冷却等原因,英伟达库存暴增,股价从最高点一度跌去了2/3。 2022年底ChatGPT横空出世,GPU作为大模型“炼丹”的燃料再次遭到哄抢,英伟达获得喘 息,但第三朵乌云随之而来:2023年4月18号,着名科技媒体The Information爆料:本轮 AI浪潮的发起者微软,正在秘密研发自己的AI晶片[2]。 这款名叫Athena的晶片由台积电代工,采用5nm先进制程,微软研发团队人数已经接近300 人。很明显,这款晶片目标就是替代昂贵的A100/H100,给OpenAI提供算力引擎,并最终 一定会通过微软的Azure云服务来抢夺英伟达的蛋糕。 微软目前是英伟达H100最大的采购方,甚至一度传出要“包圆”H100全年的产能。来自微 软的分手信号无疑是一道晴天霹雳,要知道,即使在Intel最灰暗的时候,其客户也没有 一家“敢於”自造CPU晶片(除了苹果,但苹果并不对外销售)。 尽管英伟达目前凭藉GPU+NVlink+CUDA垄断了AI算力90%的市场,但帝国已经出现了第一道 裂缝。 1、本不为AI而生的GPU 打从一开始,GPU就不是为AI所生。 1999年10月英伟达发布了GeForce 256,这是一款基於台积电220纳米工艺、集成了2300万 个电晶体的图形处理晶片。英伟达把Graphics Processing Unit的首字母「GPU」提炼出 来,把GeForce 256冠以“世界上第一块GPU”称号,巧妙地定义了GPU这个新品类,并占 据这个词的用户心智直到今天。 而此时人工智慧已经沉寂多年,尤其是深度神经网路领域,GeofferyHinton和YannLeCun 等未来的图灵奖获得者们还在学术的冷板凳上坐着,他们万万不会想到自己的职业生涯, 会被一块本来为游戏玩家开发的GPU所彻底改变。 GPU为谁所生?图像。更准确地说,是为CPU从图像显示的苦力活中解放出来而生。图像显 示的基本原理是将每一帧的图像分割成一颗颗图元,再对其进行顶点处理,图元处理,栅 格化、片段处理、图元操作等多个渲染处理,最终得以显示在萤幕上。 https://i.imgur.com/czFR9wV.jpg
从图元到图像的处理过程 图源:graphics compendium 为什麽说这是苦力活呢?做一个简单的算术题: 假定萤幕上有30万颗图元,以60fps帧率计算,每秒需要完成1800万次渲染,每次包含上 述五个步骤,对应五条指令,也就是说,CPU每秒要完成9000万条指令才能实现一秒的画 面呈现,作为参考,当时英特尔性能最高的CPU每秒算力才6000万次。 不怪CPU弱,而是其本就以执行绪调度见长,为此将更多的空间让渡给了控制单元和存储 单元,用於计算的计算单元只占据20%的空间。GPU则相反,80%以上空间是计算单元,带 来了超强平行计算能力,更适合图片显示这种步骤固定、重复枯燥的工作。 https://i.imgur.com/uqzwXSk.jpg
CPU和GPU内部结构,绿色部分为运算单元 直到几年後,一些人工智慧学者才意识到,具备这样特性的GPU也适用於深度学习的训练 。很多经典的深度神经网路架构早在20世纪下半叶就已经被提出,但因为缺乏训练它们的 计算硬体,很多研究只能“纸上谈兵”,发展长期停滞。 1999年10月的一声炮响,给人工智慧送来了GPU。深度学习的训练过程是对每个输入值根 据神经网路每层的函数和参数进行分层运算,最终得到一个输出值,跟图形渲染一样都需 要大量的矩阵运算——这恰巧就是GPU最擅长的东西。 https://i.imgur.com/blom4S9.jpg
一个典型的深度神经网路架构;图源:towards data science 不过图像显示虽然资料处理量庞大,但大部分步骤是固定的,而深度神经网路一旦运用至 决策领域,会涉及到分支结构等复杂情况,每层的参数又需要基於海量资料正负反馈训练 来不断修正。这些差别为日後GPU对於AI的适应性埋下了隐患。 如今的亚马逊AI/ML总经理Kumar Chellapilla是最早吃到GPU螃蟹的学者。2006年他使用 英伟达的GeForce 7800显卡第一次实现了卷积神经网路(CNN),发现比使用CPU要快4倍 。这是已知最早将GPU用於深度学习的尝试[3]。 Kumar的工作并未引起广泛的注意,很重要的原因是基於GPU编写程式的复杂度很高。但恰 在此时,英伟达於2007年推出了CUDA平台,开发者利用GPU来训练深度神经网路的难度大 幅度降低,这让深度学习教徒们看到了更多希望。 随後便是2009年,斯坦福的吴恩达等人发表了突破性的一篇论文[6],GPU凭藉超过CPU 70 倍的算力将AI训练时间从几周缩短到了几小时。这篇论文为人工智慧的硬体实现指明了方 向。GPU大大加速了AI从论文走向现实的过程。 经过无数人的探索,接力棒终於交到了深度学习大师Hinton的手上,此时时间已经指向了 2012年。 2012年,Hinton和Alex Krizhevsky、Ilya Sutskeverz这两位学生一起设计了一个深度卷 积神经网路AlexNet,计画参加这一年的ImageNet大赛。但问题是如果用CPU来训练 AlexNet可能需要几个月的时间,於是他们把目光转向了GPU。 这颗在深度学习的发展历史中至关重要的GPU,便是着名的“核弹显卡”GTX 580。作为英 伟达最新Fermi架构的旗舰产品,GTX 580被塞入512颗CUDA核心(上一代为108颗),算力 飞跃的同时,夸张的功耗和发热问题也让英伟达被赐名“核弹工厂”。 甲之砒霜,乙之蜜糖。跟用GPU训练神经网路时的“顺滑”相比,散热问题简直不值一提 。Hinton团队用英伟达的CUDA平台顺利地完成了程式设计,在两张GTX 580显卡的支持下 ,1400万张图片的训练只花了一个周,AlexNet顺利夺冠。 由於ImageNet比赛和Hinton本人的影响力,所有人工智慧学者都在一瞬间意识到了GPU的 重要性。 两年後,谷歌携GoogLeNet模型参加ImageNet,以93%的准确率夺冠,采用的正是英伟达 GPU,这一年所有参赛团队GPU的使用数量飙升到了110块。在比赛之外,GPU已经成为深度 学习的“必选消费”,给黄仁勳送来源源不断的订单。 这让英伟达摆脱了移动端市场惨败的阴影——2007年iPhone发布後,智慧手机晶片的蛋糕 迅速膨胀,英伟达也试图从三星、高通、联发科等碗里分一杯羹,但推出的Tegra处理器 因为散热问题铩羽而归。最後反而是被GPU拯救的人工智慧领域,反哺给了英伟达一条第 二增长曲线。 但GPU毕竟不是为了训练神经网路而生,人工智慧发展得越快,这些问题暴露得就越多。 例如,虽然GPU跟CPU差异显着,但两者根子上都遵循冯‧诺伊曼结构,存储和运算是分离 的。这种分离带来的效率瓶颈,影像处理毕竟步骤相对固定,可以通过更多的并行运算来 解决,但在分支结构众多的神经网路中很是要命。 神经网路每增加一层或一个分支,就要增加一次记忆体的访问,存储资料以供回溯,花费 在这上面的时间不可避免。尤其在大模型时代,模型越大需要执行的记忆体访问操作就越 多——最後消耗在记忆体访问上的能耗要远比运算要高很多倍。 简单比喻就是,GPU是一个肌肉发达(计算单元众多)的猛男,但对於收到的每条指令, 都得回过头去翻指导手册(记忆体),最後随着模型大小和复杂度的提升,猛男真正干活 的时间很有限,反而被频繁地翻手册累到口吐白沫。 记忆体问题只是GPU在深度神经网路应用中的诸多“不适”之一。英伟达从一开始就意识 到这些问题,迅速着手“魔改”GPU,让其更适应人工智慧应用场景;而洞若观火的AI玩 家们也在暗渡陈仓,试图利用GPU的缺陷来撬开黄仁勳帝国的墙角。 一场攻防战就开始了。 02、Google和Nvidia的暗战 面对排山倒海的AI算力需求和GPU的先天缺陷,黄仁勳祭出两套应对方案,齐头并进。 第一套,就是沿着“算力老仙,法力无边”的路子,继续暴力堆砌算力。在AI算力需求每 隔3.5个月就翻倍的时代,算力就是吊在人工智慧公司眼前的那根胡萝卜,让他们一边痛 駡黄仁勳的刀法精湛,一边像舔狗一样抢光英伟达所有的产能。 第二套,则是通过“改良式创新”,来逐步解决GPU跟人工智慧场景的不匹配问题。这些 问题包括但不限於功耗、记忆体墙、频宽瓶颈、低精度计算、高速连接、特定模型优化… …从2012年开始,英伟达骤然加快了架构更新的速度。 英伟达发布CUDA後,用统一的架构来支撑Graphics和Computing这两大场景。2007年第一 代架构登场,取名Tesla,这并非是黄仁勳想示好马斯克,而是致敬物理学家尼古拉‧特 斯拉(最早还有一代是居里架构)。 之後,英伟达每一代GPU架构都以着名科学家来命名,如下图所示。在每一次的架构反覆 运算中,英伟达一边继续堆算力,一边在不“伤筋动骨”的前提下改良。 https://i.imgur.com/UqpHHnx.jpg
比如2011年的第二代Fermi架构,缺点是散热拉胯,而2012年的第三代架构Kepler就把整 体设计思路从high-perfermance转向power-efficient,改善散热问题;而为了解决前文 提到的“肌肉傻瓜”的问题,2014年的第四代Maxwell架构又在内部增加更多的逻辑控制 电路,便於精准控制。 为了适应AI场景,英伟达“魔改”後的GPU某种程度上越来越像CPU——正如CPU优秀的调 度能力是以牺牲算力为代价一样,英伟达不得不在计算核心的堆叠上克制起来。但身背通 用性包袱的GPU再怎麽改,在AI场景下也难敌专用晶片。 率先对英伟达发难的,是最早大规模采购GPU来进行AI计算的Google。 2014年凭藉GoogLeNet秀完肌肉後,Google就不再公开参加机器识别大赛,并密谋研发AI 专用晶片。2016年Google凭藉AlphaGo先声夺人,赢下李世石後旋即推出自研的AI晶片TPU ,以“为AI而生”的全新架构打了英伟达一个措手不及。 TPU是Tensor Processing Unit的首字母缩写,中文名叫做“张量处理单元”。如果说英 伟达对GPU的“魔改”是拆了东墙补西墙,那麽TPU便是通过从根本上大幅降低存储和连接 的需求,将晶片空间最大程度让渡给了计算,具体来说两大手段: 第一是量化技术。现代电脑运算通常使用高精度资料,占用记忆体较多,但事实上在神经 网路计算大多不需要精度达到32位元或16位浮点计算,量化技术的本质基本上是将32位元 /16位元数位近似到8位元整数,保持适当的准确度,降低对存储的需求。 第二是脉动阵列,即矩阵乘法阵列,这也是TPU与GPU最关键的区别之一。简单来说,神经 网路运算需要进行大量矩阵运算,GPU只能按部就班将矩阵计算拆解成多个向量的计算, 每完成一组都需访问记忆体,保存这一层的结果,直到完成所有向量计算,再将每层结果 组合得到输出值。 而在TPU中,成千上万个计算单元被直接连接起来形成矩阵乘法阵列,作为计算核心,可 以直接进行矩阵计算,除了最开始从载入资料和函数外无需再访问存储单元,大大降低了 访问频率,使得TPU的计算速度大大加快,能耗和物理空间占用也大大降低。 https://i.imgur.com/GzFHISY.jpg
CPU、GPU、TPU记忆体(memory)访问次数对比 Google搞TPU速度非常快,从设计、验证、量产到最後部署进自家资料中心只花了15个月 的时间。经过测试,TPU在CNN、LSTM、MLP等AI场景下的性能和功耗大大胜过了英伟达同 期的GPU。压力便一下子全部给到了英伟达。 被大客户背刺的滋味不好受,但英伟达不会站着挨打,一场拉锯战开始了。 Google推出TPU的5个月後,英伟达也祭出了16nm工艺的Pascal架构。新架构一方面引入了 着名的NVLink高速双向互联技术,大幅提升连接频宽;一方面模仿TPU的量化技术,通过 降低资料精度来提升神经网路的计算效率。 2017年,英伟达又推出了首个专为深度学习设计的架构Volta,里面第一次引入了 TensorCore,专门用於矩阵运算的——虽然4×4的乘法阵列跟TPU 256×256的脉动阵列相 比略显寒酸,但也是在保持灵活和通用性的基础上作出的妥协。 https://i.imgur.com/LcALQvM.jpg
在英伟达V100中TensorCore实现的4x4矩阵运算 英伟达的高管对客户宣称:“Volta并不是Pascal的升级,而是一个全新的架构。” Google也分秒必争,2016年以後TPU在五年内更新了3代,2017年推出了TPUv2、2018年推 出了TPUv3、2021年推出了TPUv4,并把资料怼到英伟达的脸上[4]:TPU v4比英伟达的 A100计算速度快1.2~1.7倍,同时功耗降低1.3~1.9倍。 Google并不对外出售TPU晶片,同时继续大批量采购英伟达的GPU,这让两者的AI晶片竞赛 停留在“暗斗”而非“明争”上。但毕竟Google把TPU其部署到自家的云服务系统中,对 外提供AI算力服务,这无疑压缩了英伟达的潜在市场。 在两者“暗斗”的同时,人工智慧领域的进展也一日千里。2017年Google提出了革命性的 Transformer模型,OpenAI随即基於Transformer开发了GPT-1,大模型的军备竞赛爆发, AI算力需求自2012年AlexNet出现之後,迎来了第二次加速。 察觉到新的风向之後,英伟达在2022年推出Hopper架构,首次在硬体层面引入了 Transformer加速引擎,宣称可以将基於Transformer的大语言模型的训练时间提升9倍。 基於Hopper架构,英伟达推出了“地表最强GPU”——H100。 H100是英伟达的终极“缝合怪”,一方面引入了各种AI优化技术,如量化、矩阵计算( Tensor Core 4.0)和Transformer加速引擎;另一方面则堆满了英伟达传统强项,如7296 个CUDA核、80GB的HBM2显存以及高达900GB/s的NVLink 4.0连接技术。 手握H100,英伟达暂时松一口气,市面上尚未出现比H100更能打的量产晶片。 Google和英伟达的暗中拉锯,同样也是是一种相互成就:英伟达从Google舶来了不少创新 技术,Google的人工智慧前沿研究也充分受益于英伟达GPU的推陈出新,两者联手把AI算 力降低到大语言模型“踮着脚”能用得起的水准。风头正劲者如OpenAI,也是站在这两位 的肩膀之上。 但情怀归情怀,生意归生意。围绕GPU的攻防大战,让业界更加确定了一件事情:GPU不是 AI的最优解,定制化专用晶片(ASIC)有破解英伟达垄断地位的可能性。裂缝已开,循味 而来的自然不会只有Google一家。 尤其是算力成为AGI时代最确定的需求,谁都想吃饭的时候跟英伟达坐一桌。 3、一道正在扩大的裂缝 本轮AI热潮除了OpenAI外,还有两家出圈的公司,一家是AI绘图公司Midjourney,其对各 种画风的驾驭能力让无数碳基美工心惊胆战;另外一家是Authropic,创始人来自OpenAI ,其对话机器人Claude跟ChatGPT打得有来有回。 但这两家公司都没有购买英伟达GPU搭建超算,而是使用Google的算力服务。 为了迎接AI算力的爆发,Google用4096块TPU搭建了一套超算(TPU v4 Pod),晶片之间 用自研的光电路开关(OCS)互连,不仅可以用来训练自家的LaMDA、MUM和PaLM等大语言 模型,还能给AI初创公司提供价廉物美的服务。 https://i.imgur.com/uf0Uo9U.jpg
Google TPU v4 Pod超算 自己DIY超算的还有特斯拉。在推出车载FSD晶片之後,特斯拉在2021年8月向外界展示了 用3000块自家D1晶片搭建的超算Dojo ExaPOD。其中D1晶片由台积电代工,采用7nm工艺, 3000块D1晶片直接让Dojo成为全球第五大算力规模的电脑。 不过两者加起来,都比不过微软自研Athena晶片所带来的冲击。 微软是英伟达最大的客户之一,其自家的Azure云服务至少购买了数万张A100和H100高端 GPU,未来不仅要支撑ChatGPT天量的对话消耗,还要供给Bing、Microsoft 365、Teams、 Github、SwiftKey等一系列要使用AI的产品中去。 仔细算下来,微软要缴纳的“Nvidia税”是一个天文数字,自研晶片几乎是必然。就像阿 里当年算了一下淘宝天猫未来对云计算、资料库、存储的需求,发现也是一个天文数字, 於是果断开始扶持阿里云,内部展开轰轰烈烈的“去IOE”运动。 节省成本是一方面,垂直整合打造差异化是另一方面。在手机时代,三星手机的CPU(AP )、记忆体和萤幕都是自产自销,为三星做到全球安卓霸主立下汗马功劳。Google和微软 造芯,也是针对自家云服务来进行晶片级优化,打造差异性。 所以,跟苹果三星不对外出售晶片不同,Google和微软的AI晶片虽然也不会对外出售,但 会通过“AI算力云服务”来消化掉英伟达一部分潜在客户,Midjourney和Authropic就是 例子,未来会有更多的小公司(尤其是AI应用层)选择云服务。 全球云计算市场的集中度很高,前五大厂商(亚马逊AWS、微软Azure、Google Cloud、阿 里云和IBM)占比超60%,都在做自己的AI晶片,其中Google的进度最快、IBM的储备最强 、微软的冲击最大、亚马逊的保密做得最好、阿里做的困难最多。 国内大厂自研晶片,Oppo哲库的结局会给每个入场的玩家投上阴影。但海外大厂做自研, 人才技术供应链都可以用资金来构建出来,比如特斯拉当年搞FSD,挖来了矽谷大神Jim Keller,而Google研发TPU,直接请到了图灵奖获得者、RISC架构发明人David Patterson 教授。 https://i.imgur.com/UKMrpQ1.jpg
除了大厂外,一些中小公司也在试图分走英伟达的蛋糕,如估值一度达到28亿美金的 Graphcore,国内的寒武纪也属於此列。上表列举了目前全球范围内较为知名的初创AI晶 片设计公司。 AI晶片初创公司的困难在於:没有大厂雄厚的财力持续投入,也不能像Google那样自产自 销,除非技术路线独辟蹊径或者优势特别强悍,否则在跟英伟达短兵相接时基本毫无胜算 ,後者的成本和生态优势几乎可以抹平客户一切疑虑。 Start-up公司对英伟达的冲击有限,黄仁勳的隐忧还是在那些身体不老实的大客户身上。 当然,大厂现在还离不开英伟达。比如即使Google的TPU已经更新到了第4代,但仍然需要 大批量采购GPU来跟TPU协同提供算力;特斯拉即使有了性能吹上天的Dojo超算,马斯克在 筹建AI新公司时仍然选择向英伟达采购10000张GPU。 不过对於大厂的塑胶友情,黄仁勳早就在马斯克身上领略过。2018年马斯克公开宣称要自 研车载晶片(当时用的是英伟达的DRIVE PX),黄仁勳在电话会议上被分析师当场质问, 一度下不来台。事後马斯克发表了一番“澄清”,但一年之後特斯拉仍然头也不回地离英 伟达而去[5]。 大厂在省成本这方面,从来不会留情。PC机时代Intel的晶片虽然卖给B端,但消费者具有 强烈的选择自主性,厂商需要标榜“Intel Inside”;但在算力云化时代,巨头可以遮罩 掉一切底层硬体资讯,未来同样购买100TFlops算力,消费者能分得清哪部分来自TPU,哪 部分来自GPU吗? 因此,英伟达最终还是要直面那个问题:GPU的确不是为AI而生,但GPU会不会是AI的最优 解? 17年来,黄仁勳把GPU从单一的游戏和影像处理场景中剥离出来,使其成为一种通用算力 工具,矿潮来了抓矿潮,元宇宙火了跟元宇宙、AI来了抱AI,针对一个个新场景不断“魔 改”GPU,试图在“通用性”和“专用性”之间找到一个平衡点。 复盘英伟达过去二十年,其推出了数不清的改变业界的新技术:CUDA平台、TensorCore、 RT Core(光线追踪)、NVLink、cuLitho平台(计算光刻)、混合精度、Omniverse、 Transformer引擎……这些技术説明英伟达从一个二线晶片公司变成了全行业市值的南波 腕,不可谓不励志。 但一个时代应该有一个时代的计算架构,人工智慧的发展一日千里,技术突破快到以小时 来计,如果想让AI对人类生活的渗透像PC机/智慧手机普及时那样大幅提升,那麽算力成 本可能需要下降99%,GPU的确可能不是唯一的答案。 历史告诉我们,再如日中天的帝国,可能也要当心那道不起眼的裂缝。 心得/评论: MS预计推出Athena 在Azure使用 Google预计在自己云计算使用TPU Amazon 则是在去年七月推出EC2 三大CSP都是不愿意再去买贵森森的NV显卡才去研发自己的晶片 只是不知道这些特规的晶片未来会不会流入市场被小家的CSP捡走 --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.200.245.83 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1684672154.A.96D.html
1F:→ Alwen : 说真的啦 ....2018年估狗TPU震天价响 05/21 20:32
2F:→ Alwen : 结果差不多已经失败,市场继续用老黄的 05/21 20:32
3F:推 tomdavis : 太长了 所有资金平均分给所有参赛者不就稳赢了 05/21 20:33
4F:→ BlueBird5566: 到底 为什麽要叫英伟达 05/21 20:36
5F:推 mamorui : 其实看那麽多要跟AI扯关系 题材转移的浮木不多 05/21 20:36
6F:推 jack1218 : 两朵乌云XD 致敬物理学界吗 05/21 20:40
7F:嘘 IBIZA : 废文一篇 无法做到垄断就是裂缝 那有甚麽地方没裂缝 05/21 20:40
8F:→ Alwen : 台积电裂缝也很大 惨惹 05/21 20:41
9F:推 Swave : 不管谁研发,通通都要台积做 05/21 20:43
10F:推 kilhi : 台GG最大赢家 AI下一阶段是SIRI 05/21 20:43
11F:→ Alwen : 谁说的 市场一堆三星抢单的传闻 裂缝大的 05/21 20:43
12F:推 pandp : 反正NV就军火商,你做不出更好的也只能用他的 05/21 20:44
13F:推 poeoe : 微软继续持有就对了 赞啦 05/21 20:44
14F:推 imhuck : 来自对岸文章 一定长加上废言一堆,然後结论虎头蛇 05/21 20:44
15F:→ imhuck : 尾 05/21 20:44
16F:推 kirry : No杀手要出来了吗 05/21 20:46
17F:推 hcwang1126 : 特规都是软硬整合才有搞头 有了ChatGPT 微软才开始 05/21 20:48
18F:→ hcwang1126 : 搞自研 05/21 20:48
19F:嘘 hydra7 : 重点是什麽? 05/21 20:48
20F:推 maxbob : 台积电要裂什麽缝?哀凤还是无缝? 05/21 20:49
21F:推 Chilloutt : 故事很棒,可以出书 05/21 20:52
22F:→ azhu : 废话太多 结论是什麽 05/21 20:52
23F:推 stanleyiane : 抬轿文太明显了吧... 05/21 20:54
24F:→ zerro7 : 自己研发晶片就一定会成功吗...?? 05/21 20:54
25F:推 maxbob : 还在市场传、恐三星抢单,真的笑死了 05/21 20:54
26F:推 joygo : 要不要写恐整个ai团队出走比较可怕? 05/21 20:55
27F:嘘 hihi29 : ========建议还没看文章的别浪费时间看了========== 05/21 20:57
28F:→ bnn : 两朵乌云XD 05/21 20:57
29F:推 nidhogg : 这种中国废话文有够多 05/21 20:58
30F:→ Atwo : 说的好 我大AMD 05/21 21:05
31F:推 Brioni : 结论就是TSMC或最赢 05/21 21:08
32F:→ Brioni : 管你是手机、汽车、云端,通通来缴GG税 05/21 21:09
33F:嘘 ck326 : 不意外ㄅ,现在每家巨头都在自己搞 05/21 21:11
34F:→ ck326 : 有什麽不满就去怪aapl,它们家先这样做的 05/21 21:12
35F:推 Brioni : 不过水果是去搞cpu,而且是消费电子市场 05/21 21:16
36F:→ JuiFu617 : 怎麽看都是gg利多,你soc研发烧钱失败,也还是给gg 05/21 21:17
37F:→ JuiFu617 : 和创意钱 05/21 21:17
38F:嘘 adairchang : 才想说一堆没营养的情境用词 一看果然是中国废文 05/21 21:17
39F:→ JuiFu617 : 而且量和体没那麽多,有那麽好捆绑旧制程和新制程 05/21 21:18
40F:→ JuiFu617 : 来议价? 05/21 21:18
41F:推 poeoe : 真的AI搞起来 就是全世界缴钱给这些企业 05/21 21:19
42F:→ poeoe : 跟苹果一样 全世界收钱 05/21 21:19
43F:→ Shepherd1987: GG订价策略跟恐龙一样 05/21 21:20
44F:→ Shepherd1987: 都已经没对手了, 麻烦跟老黄学学刀法好吗 05/21 21:20
45F:推 KadourZiani : 裂缝的深V是给你上车的 05/21 21:24
46F:推 tsgd : 农场文章 又臭又长 05/21 21:26
47F:→ fallinlove15: 太耗电 没有商业价值 05/21 21:26
48F:推 f99999993 : 废文一篇 05/21 21:27
49F:推 luche : 安全带绑好 这是格雷的五十道阴影 05/21 21:28
50F:嘘 SaintsRow : 废到笑 05/21 21:28
51F:→ mcucte : 好长一篇,不想看 05/21 21:31
52F:→ appledick : 没用啦 ChatGTP已经抢得先机了 大家已经习惯 除非出 05/21 21:33
53F:→ appledick : 现比ChatGTP更突破性的应用 05/21 21:33
54F:嘘 jack1218 : GPT啦 05/21 21:33
55F:推 asdfg5678 : 烂文章... 05/21 21:39
56F:→ AndyMAX : 三星抢单喔 对啦 google pixels tensor找三星 TPU 05/21 21:39
57F:→ AndyMAX : 找台积 05/21 21:39
58F:推 bj45566 : 反正 AI 大战从演算法、Training、软体,到晶片设计 05/21 21:46
59F:→ bj45566 : 都不干台湾的事,台湾产业会活的比智慧手机时代和 05/21 21:46
60F:→ bj45566 : 之前的 PC/NB 时代更艰辛 05/21 21:46
61F:嘘 Qnnnnn : 废文,可以讲重点吗? 05/21 21:48
62F:推 wei9898 : 好啦,不管哪家胜出,GG都是赢家,我买GG就好了 05/21 21:49
63F:推 metallolly : 太长了 05/21 22:00
64F:→ shiyangfoo : 依中国码农的功力 如果GPU没有限制出口..赢家很难说 05/21 22:01
65F:推 bj45566 : 错,中国的自然语言处理相关科技撑不起来 05/21 22:08
66F:推 cychi : 东拼西凑的文 05/21 22:08
67F:推 f1r9a9n2k : 这篇的意思就是喷 05/21 22:08
68F:→ rkilo : 都占了90%市占,还裂缝... 05/21 22:09
69F:推 bj45566 : LLM 这些仍然是西方创造的东西 05/21 22:10
70F:推 good5755 : AI大战目前看起来是美国全胜 不管最後谁赢都是美企 05/21 22:15
71F:推 good5755 : 唯一希望的阿里巴巴是开曼群岛企业 大股东是软银 05/21 22:18
72F:→ good5755 : 笑死 05/21 22:18
73F:推 CTTSAI : 好拉东凑西凑 讲重点很难?哪个裂缝 很懂三分钟就点 05/21 22:19
74F:→ CTTSAI : 出前後问题在哪 05/21 22:19
75F:→ baka1412 : 啥小废文 05/21 22:20
76F:→ acolam : 讲了老半天根本看不懂在讲什麽 05/21 22:22
77F:推 shinyi444 : 压低吃货 利空出尽 很有fu糗 蓝买笑 05/21 22:24
78F:推 bj45566 : 没有喔,现在讲 AI 基本上都包含 ML, PR;中国技术 05/21 22:29
79F:→ bj45566 : 上最有竞争力的 AI 相关公司不是阿里巴巴,而是做电 05/21 22:29
80F:→ bj45566 : 脑视觉和模式辨认为主的商汤科技和商汤科技 -- 不过 05/21 22:29
81F:→ bj45566 : 这两家公司都是美国提升晶片封锁可以打烂的对象 05/21 22:29
82F:→ bj45566 : 打错:和旷视科技 05/21 22:30
83F:推 nobit : 丢这篇给ai撷取重点 05/21 22:33
84F:→ nobit : 结论ai还是fu糗无限 05/21 22:34
85F:嘘 kougousei : 这篇到底想表达什麽? 05/21 22:47
86F:推 pantani : 不要看结论 内容丰富 写得不错啊 05/21 22:53
87F:推 strlen : 这篇是不是AI写的?这种文章的作者就是该被AI取代 05/21 22:57
88F:→ ttsieg : 谁能三行写出重点? 05/21 22:58
89F:→ strlen : 通篇就是看消息面自我脑补幻想勒 这个ChatGPT最擅长 05/21 22:58
90F:推 Delisaac : 中国人写的文章就是这样,又臭又长故弄玄虚,然後 05/21 22:59
91F:→ Delisaac : 看完发现其实也没什麽创见 05/21 22:59
92F:推 prtscscroll : 重点就是台积电或成最大赢家 05/21 23:00
93F:推 aegis43210 : 在chatGPT出现後,AI的蛋糕变超大,老黄就算市占下 05/21 23:05
94F:→ aegis43210 : 滑也是大赚,这是去年预期不到的 05/21 23:05
95F:推 PureTrue : 很多公司都是说的一嘴好U 真的拿来比跟屎一样 05/21 23:06
96F:→ aegis43210 : 现在在AI训练能和老黄拚的就苏嬷以及2025的i皇 05/21 23:07
97F:→ aegis43210 : GPGPU难度太高,能玩的没几家,其他只能去争AI推理 05/21 23:09
98F:→ aegis43210 : 的红海市场 05/21 23:09
99F:→ brain9453 : AI空蛙被嘎到语无伦次 05/21 23:11
100F:推 justptt978 : 师爷 你给翻译翻译 05/21 23:12
101F:推 brightest : 台湾有林永隆教授开的NEUCHIPS 台湾也是有在努力跟 05/21 23:30
102F:→ brightest : 上 05/21 23:30
103F:推 BigCockman : 中国AI输惨了 这波证明了中国软体还是屌输美国 中 05/21 23:36
104F:→ BigCockman : 国软体始终是强在党的长城+14亿人口市场 科研还是 05/21 23:36
105F:→ BigCockman : 要靠美帝 05/21 23:36
106F:推 bj45566 : 努力不代表有效,台湾在 NeurIPS, CVPR 这些 AI 顶 05/21 23:42
107F:→ bj45566 : 会上发表绩效就是很差,没有世界级的竞争力 05/21 23:42
108F:推 bj45566 : 其实中国的网路通讯、大数据、AI 研发水准反而是与 05/21 23:49
109F:→ bj45566 : 美国差距最近的;中国在 CS 领域研发水准和欧美相差 05/21 23:49
110F:→ bj45566 : 最远的是 TCS (理论电脑科学、OSDI (作业系统设计) 05/21 23:49
111F:→ bj45566 : 、SE (软体工程),... 这些 05/21 23:49
112F:推 bj45566 : TCS 这块以色列超级可怕的,以一国之力在 ACM STOC 05/21 23:53
113F:→ bj45566 : 会议发表绩效和经典教科书市场都能和美国相抗衡 -- 05/21 23:53
114F:→ bj45566 : 犹太人果真是全世界最聪明的民族! 05/21 23:53
115F:推 good5755 : 商汤之类的公司主要是视觉算法吧 不是靠样本数够多 05/21 23:57
116F:→ good5755 : 试错成本低算出来的?这篇文章主要是聚焦硬体算力 05/21 23:58
117F:→ good5755 : 对岸自研晶片目前看起来只有阿里云成气候吧 05/21 23:59
118F:推 bj45566 : 所有的深度学习 AI 都非常依赖海量资料 Training 05/21 23:59
119F:嘘 steak5566 : 中或赢 05/21 23:59
120F:推 dangurer : 这篇当科普还可以吧…也许有些太一厢情愿? 05/22 00:01
121F:推 bj45566 : 商汤能在电脑视觉领域领先还是演算法够强 -- 领军 05/22 00:01
122F:→ bj45566 : 的香港中文大学教授团队 05/22 00:01
123F:推 atlaswhz : 中国天网系统AI很强啊!可惜民间不能用 05/22 00:03
124F:→ aegis43210 : 巨量资料分析未来是ASIC的天下了 05/22 00:03
125F:→ good5755 : 人脸辨识前几年很红 现在看起来也只有苹果坚持用 05/22 00:03
126F:→ good5755 : 欧美国家个资问题 你敢用还不告死你 05/22 00:04
127F:推 bj45566 : 其实这篇和中国其他的技术类长文和台湾国科会计画 05/22 00:09
128F:→ bj45566 : 书的写作方法根本是孪生兄弟 XDDD (国科会时代,现 05/22 00:09
129F:→ bj45566 : 在我不知道是否有改变) 05/22 00:09
130F:推 bj45566 : 图像辨识真正的主战场在 CSI (犯罪监识) 和军武(如 05/22 00:12
131F:→ bj45566 : 智慧导弹)喔;以後还会扩及到精密手术辅助工具 05/22 00:12
132F:→ bj45566 : 最後是高档的机器人产业 05/22 00:13
133F:推 bj45566 : ASIC 现在只能做硬体辅助加速 05/22 00:16
134F:推 dannyko : 一堆人没仔细看内文…里面有一个论点是对的,GPU虽 05/22 00:30
135F:→ dannyko : 然现在在算AI很强,但本质上还是图像计算硬体,靠C 05/22 00:30
136F:→ dannyko : uda转译(连最强的V100 H100本质也是)如果今天有成 05/22 00:30
137F:→ dannyko : 熟且专门的AI计算硬体(狗和苹果还没搞出来的),同 05/22 00:30
138F:→ dannyko : 样使用先进晶片的状况下,效能肯定会喷上去 05/22 00:30
139F:→ dannyko : 就看未来是老黄刀切得快 还是其他公司追得快 05/22 00:32
140F:推 s860134 : 就问你自制硬体 软体还是要相容 CUDA ? 05/22 00:45
141F:→ s860134 : 还是你要自己重新土炮软体架构? 05/22 00:45
142F:→ s860134 : 自制很美好 等到真的要取代才骨感 05/22 00:45
143F:推 bj45566 : 楼上,因为一堆开骂的人根本看不懂内文啊 -- 虽然这 05/22 00:51
144F:→ bj45566 : 篇写的也不算好而且有技术错误 05/22 00:51
145F:→ bj45566 : 楼上是指 dannyko 网友 05/22 00:52
146F:推 hanhsiangmax: 历史科普优文推 05/22 00:53
147F:推 bj45566 : 不过大部分人不知道 von Neumann Architecture vs. 05/22 00:56
148F:→ bj45566 : Harvard Architecture 也是正常啦,作者太卖弄术语 05/22 00:56
149F:→ bj45566 : 了 05/22 00:56
150F:推 bj45566 : 而且 GPU 架构是刚好蛮适合建构现在的深度学习类神 05/22 01:01
151F:→ bj45566 : 经网路,但这个架构跟人类大脑真正的神经网路架构是 05/22 01:01
152F:→ bj45566 : 相差非常非常大的 05/22 01:01
153F:推 by19 : 真的废言一堆 看不到重点 05/22 01:06
154F:推 bj45566 : 因为这篇本质上是历史科普文... 05/22 01:08
155F:推 good5755 : 不就GPU和NPU的差别吗 N家没有搞NPU吗? 05/22 01:09
156F:嘘 musie : 废文一篇 连Anthropic 都打错 05/22 01:22
157F:嘘 goodjop : 对面的文章 真的不用浪费时间 05/22 01:38
158F:嘘 bcza245682 : 废话一堆 05/22 01:56
159F:推 bj45566 : TPU, NPU, DPU,... 都是对 AI 做最佳化的尝试而已, 05/22 02:03
160F:→ bj45566 : NPU 也没特别优秀 05/22 02:03
161F:嘘 a000000000 : 老黄自己塞惹tensor core 实际上4gpu+asic惹 05/22 02:14
162F:→ a000000000 : 自研仔我看差不多可以收摊惹 整体战力差太远 05/22 02:15
163F:→ a000000000 : 而估狗tpu主要还是针对DLRM 现在想改就三五年後惹 05/22 02:16
164F:→ a000000000 : 搞不好LLM啥的又变形惹 05/22 02:17
165F:→ rewisyoung : 废文看了打哈欠 车用这块不分品牌老黄垄断 会不知 05/22 02:20
166F:→ rewisyoung : 道的就外行人 05/22 02:20
167F:推 asubelieve : 认真说这篇文章说了太多假设性的东西而且没有数据 05/22 02:26
168F:→ asubelieve : 佐证,从头到尾都是自己的评论 05/22 02:26
169F:嘘 a000000000 : 车用ai市场"目前"没很大 mpu霸王是Q康 05/22 02:26
170F:推 dangurer : 原来anthropic打错XD 以为是公司名有藏梗 真像学生 05/22 02:36
171F:→ dangurer : 报告 在认真的外表下一堆资讯认知落差但认真考古 05/22 02:36
172F:推 joey00 : 觉得历史科普不错啊 只是没结论 05/22 03:22
173F:嘘 ksjr : 这心得...原po484也没把整篇给读完蛤 05/22 03:33
174F:嘘 NEX4036 : 太长 05/22 04:01
175F:嘘 wahaha99 : 建议把这篇喂给ChatGPT4帮你做摘要 05/22 04:47
176F:→ wahaha99 : 不然谁看得完 05/22 04:47
177F:嘘 kyova : 文章太长,你以为股民看得下去吗 05/22 04:49
178F:嘘 deepdish : 太长END 05/22 05:02
179F:推 shields5566 : 太长了 以为是在做大学生报告逆 05/22 05:23
180F:推 dosiris : 以後电脑 要不要再设计插一个TPU运算卡 05/22 05:34
181F:→ SILee : 其他家不是没能力客制化出算力更强的。主要问题是卡 05/22 05:39
182F:→ SILee : 在硬体的开发时程很长很长,是用年为单位在算的。 05/22 05:39
183F:→ SILee : 根本跟不上现在AI模型以周为单位在变化演进的速度。 05/22 05:40
184F:推 dosiris : Google怎麽不卖PCIe插槽的TPU运算卡 我会想买说 05/22 05:40
185F:→ SILee : 等你开发出来,已经过时了。所以到头来大家还是倾向 05/22 05:41
186F:→ SILee : 用nvidia的solution,比较有弹性。 05/22 05:41
187F:推 dosiris : 电脑端能插TPU卡/NPU卡的竞争时代一到 GG就订单满了 05/22 05:43
188F:推 Justisaac : 这东西就跟晶圆一样,赚到钱的人自然会成为领先者 05/22 05:47
189F:→ Justisaac : 应该没有人会认为Nvda没有在研发别种运算核心吧.... 05/22 05:47
190F:嘘 hsiaoeddie : 废话一堆 05/22 07:15
191F:推 gracefeather: 硬体发展当中,最慢的瓶颈是记忆体吧 05/22 07:28
192F:嘘 hschian : 我就问TPU 制程节点还停留在什麽制成? 05/22 07:58
193F:→ hschian : 然後NV用什麽制成? 05/22 07:58
194F:推 hansioux : NVIDIA,台语翻成 Ing-uí-ta 英伟达,很像啊 05/22 08:05
195F:嘘 kevin31a2 : 名字都不敢打算三小研究 05/22 08:16
196F:推 coolmark01 : 有商机才值得投入自研,不然都是浮云不如继续用NV既 05/22 08:35
197F:→ coolmark01 : 有的商品 05/22 08:35
198F:→ TrumpCard : 好奇如果让chart GPT 回应这篇”重点节录”会显示 05/22 08:44
199F:→ TrumpCard : 什麽? 05/22 08:44
200F:→ TAKEZOU : 写着麽多还是要跪着买NV 05/22 08:49
201F:→ guowei616 : 公啥小 05/22 09:01
202F:嘘 superlive : 什麽废文浪费我时间 05/22 09:31
203F:推 doomsday0728: 废文 05/22 09:37
204F:嘘 x001611 : 中国废话 05/22 10:04
205F:→ videoproblem: 中或赢 05/22 10:19
206F:嘘 GooglePixel : 标题钓鱼内文小说 结论就是科技巨头不可能一直被NV 05/22 10:22
207F:→ GooglePixel : DA收税 能够自己做ASIC可以省下很大成本 从GPU架构 05/22 10:22
208F:→ GooglePixel : 上来看还是包了很多AI运算以外的东西 这些在特定应 05/22 10:22
209F:→ GooglePixel : 用都是冗余的可以节省的成本 05/22 10:22
210F:嘘 Benjamin901 : 纯嘘英伟达 05/22 10:22
211F:推 xj654m3 : 阿里的困难最多XDD 05/22 10:53
212F:推 hanmas : 历史科普不错 05/22 10:59
213F:→ k85564 : 写那麽大一篇已知 05/22 11:04
214F:→ k85564 : 然後没有提到mi300/350 差评 05/22 11:06
215F:推 to1322 : 整篇看完... 只有标题比较杀 05/22 11:39
216F:推 king12272 : 这篇大概就是AI写的 落落长但是没有内容 05/22 12:56
217F:推 wardraw : 推科普 只要老黄价格控制得当 还是比自研成本来得低 05/22 14:45
218F:嘘 jamesho8743 : google tpu 还不是打不过老黄 GPU虽然不是针对AI设 05/22 18:58
219F:→ jamesho8743 : 计 但是它有规模优势 成本优势 整体的性价比 能效 05/22 18:58
220F:→ jamesho8743 : 比 没有输专用的chip 更别说软体优势了 05/22 18:58
221F:嘘 puffycat : 废文一篇!不能跑Cuda的TPU没人要啦!即使TPU性能 05/24 14:13
222F:→ puffycat : 再好再省电再便宜,一句可以跑Cuda就谢谢再联络! 05/24 14:13







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:BabyMother站内搜寻

TOP