作者TameFoxx (foxx)
看板Stock
标题Re: [情报] 辉达:将恢复H20在中国的销售
时间Wed Jul 16 14:48:54 2025
※ 引述《LDPC (Channel Coding)》之铭言:
: 最近时间比较多 发发废文https://reurl.cc/x3GvEb
: 摘录"我们希望中国持续使用排名第四的产品,因为他们仍然离不开美国技术",
: "中国完全有能力自己做晶片,但你要保持领先一步,这样他们就会持续买我们的产品"
: 这意味 美国商务长已接受用次次次次级晶片 来锁西岸自研
: (这论点很久以前就发过 参照2023 11月 1bJpKX18) 所以老黄应该会爆赚
: 针对H20架构 https://hao.cnyes.com/post/76040
: 还是老话一句 单颗快没有太大好处 要的是整个node-to-node cluster-to-cluster
: 巨大串级 也就是nvlink+cuda h20有4TB/s串连速度 稳定cuda 这种只有老黄有
: 这点来说h20还是可以打赢910b 尤其910b坪宽速度是h20一半 这意味多颗串连时
: 910b自身算力会被频宽限制住而下降 以及h系列都有 transformer engine 可以动态调整
频宽有两种
HBM的频宽跟GPU-GPU的频宽
如果是串联走张量并行 最後都是会卡在GPU频宽没错
H20单颗算力较低 在input token较多的时候会显得吃力
多颗并联确实可以改善这问题
在使用者只问一些 帮我用Python写一个贪食蛇 这种超短的prompt
根本不需要消耗多少算力
最後都是比频宽
如果模型大小比较小可以整个塞在H20中
那H20的速度直接屌打华为
H20其实某种程度上CP值真的算很好
只有中国买得到
中国以外的地方 请你们买我们NV贵贵的GPU喔 不提供H20超值餐
: bf16精度 然後在inference系列还是有极佳generation token效果
: 而h20 记忆体是96GB hbm3 这就意味者 cowos/hbm/tsm小队可以回归了
: 中国的市场订单可以作为後来买其他股票的定锚 下一季NV财报可以用来其他厂商对答案
: 这也意味者老AI要回来了 来吧 tsm小队集合 \@@/
我比较期待把HBM弄到个人电脑的那天
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 202.39.243.162 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1752648536.A.E04.html
※ 编辑: TameFoxx (202.39.243.162 台湾), 07/16/2025 14:49:16
1F:推 peterwu4 : 主要制程封装都是一样的,电晶体数量少还可以宣传成 07/16 14:55
2F:→ peterwu4 : 不易过热XD 07/16 14:55
3F:推 dragonjj : 不是 有B100 200 300系列买什麽H20? 07/16 14:55
4F:→ peterwu4 : 生意人做生意,又要满足美国,又要满足中国,难为了 07/16 14:56
5F:→ TameFoxx : 价格问题 B系列保底8片最便宜也要1200万 07/16 15:03
6F:推 sdbb : H是不好的 07/16 15:29
7F:嘘 EZTW0000 : 中国有的选才不会买h20 07/16 15:45