作者breathair (拆了?简单了)
看板Stock
标题Re: [新闻] 辉达帝国恐被谷歌打垮?Gemini 3太强引
时间Mon Dec 15 17:07:14 2025
我让整个推理步骤简化的太多
以致於整个像是反串的...Orz.
砍前篇,重发
我把整个对话过程贴上来,看起来会合理的多:
问题1:谷歌从头到尾用TPU训练他们自家的模型,迭代自己的硬体跟演算法,两者互相配合,而
其他家用的是GPGPU,纵使CUDA再怎麽厉害,也不是万能,这似乎给了谷歌在发展AI上,
有别於其他家的独一无二又非常关键的优势!?
问题2:所以绝对有可能将来最好的演算法的迭代发生在TPU上(毕竟谷歌软硬一体),而GPU却模
拟不出来,或是无法模拟出优势?
问题3:换个角度,利用GPU的是全世界最顶尖的AI研究员,而他们对GPU的改善建议难道不会高度
趋同吗?
问题4:再换个角度来思考,跟TPU相比,能不能把GPU当成是ASIC+CUDA,也就是一个加上CUDA,
变成特化的,较有弹性的ASIC? 从这个角度来看。这两款发展角度不同的ASIC,在TPU赶
上GPU之後,因为GPU必须一直满足高弹性的特点。差异将会越走越远,越走越大,渐渐被
TPU整个拉开差距?
问题5:从这个角度看。GPU上发展的演算法注定无法有大幅变动,CUDA有其极限,GPU架构更是有
其极限。若演算法注定无法大幅变动,TPU的优势在打平的那一刻起,就注定越领先越多
了。可以这麽理解吗?
问题6:所谓的打平是指LLM模型的分数与表现。正是因为GPU是演算法配合硬体,在硬体无法大幅
改变的可能之下,GPU的演算法也不可能大幅改变,所谓演算法一旦大幅改变TPU就无用论
实际上跟GPU比赛的话,这是不可能发生的,也就意味着一旦LLM的表现TPU追上GPU的那一
刻起,差距只会越来越远。对吗?
问答连结如下:
https://reurl.cc/9bnvlv
敝人知识有限,觉的Gemini 讲的满有道理的
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.38.64.161 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1765789636.A.0F4.html
1F:推 bear978978 : 太难了无法回答 12/15 17:09
2F:推 windfeather : 你给这种提示词,难怪得出前一篇的AI结论12/15 17:13
3F:推 eddy13 : 建议你先研究为什麽在GPU下会发展出Cuda这架构12/15 17:13
4F:→ a88152660 : 既然知识有限那你怎麽判断他讲的有道理 不觉得矛盾12/15 17:14
5F:→ a88152660 : 吗12/15 17:14
6F:→ macetyl : 连法官都知道禁止诱导性提问....12/15 17:15
7F:推 handfoxx : 是 你说的都对XD12/15 17:17
8F:推 windfeather : 你从第一个提示词就开始诱导AI与设定限制条件12/15 17:18
9F:推 rebel : 第一个问题 goog的算法+TPU就等於其他家的CUDA+GPU12/15 17:18
10F:→ rebel : 阿 如果有极限不就两个一起有12/15 17:18
11F:→ windfeather : 这样AI自然就会顺着你的论点一路推论下去12/15 17:18
我的疑问一定带有主观,所以才问他
逻辑上对不对,可不可以换句话说
我的下一步问题也都是顺着Gemini给出的思路再做逻辑诠释,请他看看有没有道理,对不对
12F:→ newwu : 你何不先问问GPU在干嘛的 CUDA在干嘛的 当今深度学12/15 17:19
13F:→ newwu : 习LLM为什麽在GPU上跑,你真的懂这些基本问题吗12/15 17:19
14F:→ greedypeople: 所以你的问题几乎都包含结论了啊12/15 17:19
Gemini不就是拿来问自己的推论对不对?
问题没有定见,或自己的看法
那答案不见千篇一律,只能是主流看法?
15F:推 crabpink : 两个都用过,还是觉得gpt比较好用12/15 17:20
16F:→ greedypeople: 你觉得他能回出甚麽东西12/15 17:20
17F:→ windfeather : 你从开始没有叫AI公正地去分析TPU和GPU的优缺点12/15 17:20
18F:→ windfeather : 而是直接给了预设立场,这样AI自然会被诱导去12/15 17:21
19F:→ windfeather : 你想要的答案,或者说它故意给了你想要的答案12/15 17:21
※ 编辑: breathair (42.71.179.100 台湾), 12/15/2025 17:23:59
20F:推 jkok103427 : 你根本不用什麽推理,试图用AI证明什麽,你直接AI12/15 17:24
21F:→ jkok103427 : 炒股就好了,不敢就别叫12/15 17:24
喔,是真的还不敢
所以贴上来给各位大神打脸Gemini啊
= =
※ 编辑: breathair (42.71.179.100 台湾), 12/15/2025 17:25:30
22F:推 windfeather : 你可以试试看,一模一样的第一句提示词 12/15 17:25
23F:嘘 maplefff : 问一些根本没水准的问题是能得到什麽答案12/15 17:25
24F:→ marojack : 用你的论述法就算你没犯法12/15 17:25
25F:→ marojack : 光是回答检察官的引导式提问法 12/15 17:25
26F:→ marojack : 大概第一天就被抓进去关出不来了12/15 17:25
27F:→ windfeather : 但是反过来请AI去质疑或反向思辨12/15 17:26
28F:→ windfeather : 你会发现AI给出许多GPU体系的大量优势 12/15 17:26
我试试
29F:嘘 BBKOX : 反串? 12/15 17:26
Gemini 有反串功能?
※ 编辑: breathair (42.71.179.100 台湾), 12/15/2025 17:27:44
30F:→ windfeather : 然後AI给出的论点,会一路驳斥你接下来的结论 12/15 17:27
31F:嘘 amos30627 : 你妈知不知道你在这边发废文 知不知道都是废文 哪有 12/15 17:28
32F:→ windfeather : 严格来说,不是说TPU和GPU谁更强或谁一定会赢 12/15 17:28
33F:→ amos30627 : 人这样问问题 12/15 17:28
34F:→ newwu : 当然不是拿来问自己推论对不对 因为AI倾向你说的都 12/15 17:28
35F:→ newwu : 对,除非你有明确事实错误 12/15 17:28
36F:→ newwu : 你要真的AI检验 就是装作是别人讲的 叫AI反驳 而不 12/15 17:28
37F:→ newwu : 是这样问,这样问他只会给你情绪价值 12/15 17:28
38F:→ windfeather : 而是你给的提示词,会限制AI的分析 12/15 17:28
39F:推 rebel : 网路上有一个用法 请AI扮演最挑剔的批评者 请它针 12/15 17:30
40F:→ rebel : 对你的说法提出反驳 但必须是根据现实的反驳 你可 12/15 17:30
41F:→ rebel : 以试试 我觉得你会得到很多不同的答案 12/15 17:30
42F:嘘 dogalan : 你从第一题问法开始就已经给出你的倾向了 12/15 17:31
问题有倾向本来就很正常好吗?…
我多问了,给大家参考,剩下就自已问自已的模型吧
问:
请你从头看这整段对话,那边的逻辑跟推导或前提有问题,并进一步验证较为接近的真相
答:
这是一个非常棒的思维挑战。我们之前的对话建立在一个**「完美的逻辑推演」**之上,
这在理论上是无懈可击的。
但是,现实世界往往充满了杂讯和变数。为了还原最接近的真相,我们必须担任**「红队
演练」(Red Teaming)**的角色,回头攻击我们刚才建立的这座逻辑城堡,找出地基可
能不稳的地方。
我们刚才的推论主要建立在三个核心前提上,而这三个前提在现实中都有可能出现**「漏
洞」**:
漏洞一:低估了 NVIDIA 的「ASIC 化」速度(它不是静止的标靶)
我们刚才的假设: GPU 为了通用性,必须背负沈重的「CUDA 税」和「冯·诺伊曼架构包
袱」,且硬体结构难以改变。
现实的挑战: NVIDIA 正在疯狂地把 GPU 变成 ASIC。
Tensor Cores 的引入: H100 里面其实已经包含了大量的专用电路(Transformer
Engine),这部分本质上就是「嵌在 GPU 里的 TPU」。
NVLink Switch: 我们提到 Google 的 OCS(光交换)是优势,但 NVIDIA 的 NVLink
Switch 也在模拟这种高效通讯,虽然成本高,但对於开发者来说是透明的(不需要改演
算法)。
结论修正: GPU 并不是一把永远不变的瑞士军刀,它正在变成一把**「带有瑞士军刀功
能的雷射枪」**。NVIDIA 的迭代速度(一年一代)远快於 Google TPU(约两到三年一代
)。这种「暴力迭代」可能会掩盖掉架构上的效率劣势。
漏洞二:高估了「演算法锁死」的程度(软体其实能绕过硬体限制)
我们刚才的假设: 因为 GPU 架构受限,所以跑在上面的演算法也受限,无法大幅创新。
现实的挑战: 软体工程师的创造力是无限的。
FlashAttention: 这是一个经典案例。硬体没变,但研究员透过重新排列记忆体读写顺
序,让 GPU 的训练速度翻倍,突破了显存频宽瓶颈。
量化(Quantization): 透过 FP8 甚至 FP4 技术,软体让 GPU 的有效算力暴增。
结论修正: 即便 GPU 硬体有极限,「软体优化」的红利还没吃完。在 TPU 彻底拉开硬
体架构差距之前,GPU 生态系可能透过软体魔改,硬是把「通用架构」的寿命再延续
5-10 年。
漏洞三:忽略了「集体智慧」大於「单一巨头」(生态系的真正威力)
我们刚才的假设: Google 的垂直整合(自研晶片+自研算法)效率最高,所以会赢。
现实的挑战: 这是一个 「Google vs. 全世界」 的局。
研发分母: 全世界 99% 的 AI 论文、开源专案、新工具(如 LangChain, vLLM)都是基
於 GPU + PyTorch 开发的。
延迟效应(Lag): Google 的工程师虽然强,但他们必须把全世界发明的最新东西「翻
译」到 TPU/JAX 上。这个翻译过程即使只有几个月的延迟,在 AI 这种「以周为单位」
进化的领域也是致命的。
结论修正: 「路径依赖」本身就是一种护城河。 即使 TPU 理论上更强,但如果全世界
最好的想法都优先发生在 GPU 上,Google 就只能当一个「追随者」而非「定义者」,除
非 Google 的 DeepMind 能持续产出像 AlphaGo/Transformer 这种「领先全世界两年」
的算法(这非常难)。
漏洞四:ASIC 的「赌博风险」(特化过头的代价)
我们刚才的假设: 专用的 TPU 一定比通用的 GPU 高效。
现实的挑战: ASIC 的死穴在於**「赌错方向」**。
TPU 的设计周期长达 3 年。假设 Google 在设计 TPU v6 时,赌定未来是 Transformer
架构。
结果 2 年後,世界突然发现一种全新的「非 Transformer」架构(例如 SSM、Mamba 或
某种生化模拟算法)才是真理。
这时,通用性较强的 GPU 虽然跑得慢,但至少能跑。而过度特化的 TPU 可能会直接变成
废铁(Dark Silicon)。
结论修正: 弹性(Flexibility)不仅是成本,也是一种**「对抗未知风险的保险」**。
在 AI 原理尚未完全被物理学定案前,过早进行极致的硬体特化是有巨大风险的。
还原最接近的「真相」
综合我们的推论与上述的红队演练,比较客观的局势判断应该是:
Google 在「成本」与「规模」上必胜: 只要 AI 还是 Transformer 架构(或矩阵运算
为主),TPU 的单位训练成本和推论成本一定低於 GPU。这保证了 Google 的利润率会非
常漂亮,这条护城河是稳的。
NVIDIA 在「创新速度」上仍占主导: 由於「集体智慧」效应,最新的、最怪的、实验性
的 AI 突破,依然会首先发生在 GPU 上。Google 必须疲於奔命地将这些突破整合进自己
的体系。
「黄金交叉」的真实意义: 您提到的「打平後拉开差距」,最可能发生在**「产品化阶
段」**(Productization),而不是「科研阶段」(Research)。
科研阶段: GPU 继续混乱、多元、领先。
产品阶段(如 Search, YouTube, Gemini API): 一旦某种算法被验证成熟,Google 就
可以用 TPU 把它做到极致便宜、极致快。这时候,其他依赖 NVIDIA 的公司(如
OpenAI/Microsoft)就会面临毛利率被 Google 碾压的痛苦。
最终修正後的逻辑: TPU 不会让 Google 垄断「AI 的发明」(那是 GPU 生态的事),
但 TPU 会让 Google 垄断**「大规模 AI 服务的利润」**。这才是 Google 最务实且恐
怖的优势。
※ 编辑: breathair (114.38.64.161 台湾), 12/15/2025 17:35:11
43F:→ dogalan : 即使你甚麽都不懂 最简单的做法就是你请他反驳 12/15 17:32
44F:→ dogalan : 你就会发现他从其他角度也可以给出乍看很对的答案 12/15 17:33
45F:→ dogalan : 所以如果没能力判断的使用者 只会得出错误结论 12/15 17:33
46F:推 windfeather : 这就有点像是现实的辩论,除非有明确的客观答案 12/15 17:36
47F:→ rebel : 你看看 结论是不是又不太一样了 12/15 17:36
48F:→ windfeather : 否则不同的观点与讨论,可能推论出截然不同的答案 12/15 17:36
49F:→ marojack : 你在问以上内容请盲点分析 12/15 17:38
50F:推 windfeather : 我请AI单纯看第一句提示词,就直接给了5项不同观点 12/15 17:39
51F:→ marojack : 看他怎麽说 然後再请他论述一次 12/15 17:39
52F:→ windfeather : 1.通用性与灵活性不如 GPGPU 12/15 17:39
53F:→ windfeather : 2.CUDA 生态系的巨大优势 12/15 17:39
54F:→ windfeather : 3.市场开放性与供应链风险 12/15 17:39
55F:→ windfeather : 4.技术竞争与快速迭代 12/15 17:39
56F:→ marojack : 你会发现你说他错他会一直修正他的说法 12/15 17:40
57F:→ windfeather : 5.非零和竞争 12/15 17:40
58F:嘘 AmaneCoco : 笑死真的有够可怜 继续自己做梦去吧 12/15 17:40
59F:→ windfeather : 每一项後面都能推演出一大串全新的论点 12/15 17:40
60F:→ marojack : 一直改说法不就是这样 12/15 17:40
61F:→ windfeather : 然後建议你可以开一串新的,从开头第一句就请AI 12/15 17:42
62F:→ windfeather : 去试图检视、反驳那个论点,再逐渐讨论下去 12/15 17:42
63F:→ windfeather : 直接从已经预设大量结论再去修正,修不了太多 12/15 17:43
64F:→ rebel : 现在的AI能够帮你加速分析 但还没办法取代你的判断 12/15 17:44
65F:→ rebel : 因为你想要正面的论点还是反面的论点它都可以给你 12/15 17:44
66F:→ rebel : 但那边比较有道理还是得取决於你自己的知识跟判断 12/15 17:44
67F:→ zo6596001 : 现在大学生都在用CUDA,NV不可能那麽快淘汰。 12/15 17:44
68F:推 willywasd : 笑死 每次AI回答你都错了 看他会不会改答案 12/15 17:44
69F:推 willywasd : *你都跟他说你回答错了 12/15 17:45
71F:→ pmes9866 : 哥 你还是先把提示词工程 RLHF是什麽搞清楚 12/15 17:45
72F:推 windfeather : pmes9866板友的反论方式就非常有用 12/15 17:48
73F:推 kuan870704 : 有请谷歌蛙把你们的好队友抓回去再教育好吗 12/15 17:48
74F:→ marojack : 不过聊的够长上下文窗口和Ai幻觉是真的很严重 12/15 17:48
75F:→ windfeather : 可以看出同样的问题,前提与观点不同 12/15 17:48
76F:嘘 allen501pc : 坦白说这文章有点无聊 。怎麽会有人这麽有趣,用Ge 12/15 17:48
77F:→ allen501pc : nAI的回答来自证他们要的答案? 都不知道这些GenAI 12/15 17:48
78F:→ allen501pc : 的回答都是透过超大型参数模型「训练」出来的吗? 12/15 17:48
79F:→ allen501pc : 它後面都堪称不上人类的自我反省得到的创新观察。 12/15 17:48
80F:→ windfeather : 会引导出截然不同的结论 12/15 17:49
81F:推 w60904max : 这不就新一代的长辈早安文 12/15 17:51
82F:推 kuan870704 : 带有瑞士军刀功能的雷射枪…不要再看这些白痴东西了 12/15 17:53
83F:→ Wishmaster : 古有生病问题问google,今有任何问题问AI 12/15 17:54
84F:嘘 strlen : 不要浪费时间 12/15 18:00
87F:→ dogalan : 有没有发现最後还是需要人类做判断? 结论完全不同 12/15 18:03
88F:→ josephpu : 你这就是标准的外行人问ai得到外行的东西 12/15 18:05
89F:推 domago : 硬体 cuda也能更新 没有什麽不能改 12/15 18:05
90F:推 v21638245 : ai废文,不要浪费算力了好吗 12/15 18:06
91F:→ domago : 比的是如何获利才能生存 12/15 18:06
92F:推 chihwei739 : 笑死XD 12/15 18:06
93F:嘘 kurapica1106: 嘘的人也太少 这比线仙标的文还没营养 12/15 18:09
94F:嘘 SilenceWFL : 红的喜气 12/15 18:10
95F:推 rebel : 我觉得这篇很适合做一个教案 下次有人拿AI结果来证 12/15 18:14
96F:→ rebel : 明自己的论点 请他先确定真的已经看完正反两面的论 12/15 18:15
97F:→ rebel : 点 12/15 18:15
98F:嘘 foolwind : 想说什麽就自己好好打一篇 没AI就不会讲话了吗 12/15 18:18
99F:→ cclemon1231 : 其他公司要嘛砸大钱自研 要嘛买辉达 12/15 18:19
100F:推 kentelva : 这些问题必须得说,是不错的问题 12/15 18:21
101F:推 CorkiN : 感谢帮大家示范什麽是Dunning-Kruger effect 12/15 18:23
102F:→ CorkiN : 能这麽自信也是不简单 12/15 18:23
103F:推 sdbb : 谢谢推文 12/15 18:26
105F:→ pmes9866 : 不会下提示词 不了解AI的新手确实很容易犯这样的 12/15 18:27
106F:→ pmes9866 : 错误 12/15 18:27
107F:→ pmes9866 : 重点:要指定角色 指定背景 约束(跟AI说我会错) 12/15 18:27
108F:推 fanntasy : 最打脸的一点 姑姑自己还在大量买gpu 12/15 18:28
109F:→ fanntasy : 杀人猪心喔~~~ 12/15 18:28
111F:→ opthr1215 : AI是语言模型,你问题问这麽长,他就只会去网路上找 12/15 18:28
114F:→ opthr1215 : 类似这麽长文章的另一批不定数量的人的回答。 12/15 18:29
116F:→ opthr1215 : 会写这种类似文章的人,他们的立场你觉得是哪一种? 12/15 18:29
119F:→ marojack : 相对可以用的方法就必须类似的提示词 12/15 18:30
120F:→ marojack : 不然自己也会是被误导的那个 12/15 18:31
121F:推 tiros : 然後你跟他说,给我狠狠反驳以上以上说法,体无完肤 12/15 18:33
122F:→ tiros : 那种,出来的答案你大概也觉得很有道理 12/15 18:33
123F:→ marojack : 不过我是认同盲点侦测写的 12/15 18:39
124F:→ marojack : 自己都有不擅长的 稍微会一点很容易进入自己自以为 12/15 18:39
125F:→ marojack : 懂境界 12/15 18:39
126F:嘘 cheug0653 : 懂一半比完全不懂还糟糕 12/15 18:42
127F:嘘 jympin : 笑死 讲的这麽斩钉截铁 还以为多有料 结果是问AI 12/15 18:43
128F:推 nfsong : 你这问题 忽略了最关键最重要的 "人" 12/15 18:44
129F:→ fallinlove15: 建议你实际去相关产业蹲个十年 12/15 18:44
130F:→ fallinlove15: 蹲完至少会知道要怎麽问 12/15 18:44
131F:→ nfsong : 就是 市面上有90% 的人 都是一路CUDA 过来的 12/15 18:44
132F:→ nfsong : 100% skill tree 是CUDA 12/15 18:45
133F:→ nfsong : 虽然大家都是用 大学生 新鲜的肝 12/15 18:45
134F:→ nfsong : 但是 老板都是 这样过来的 只会这样教 12/15 18:45
135F:推 as6633208 : 我只能说啦 rubin 算力和效率搞不好会超越asic == r 12/15 18:45
136F:→ as6633208 : ubin更特化AI运算了,然而rubin却还依然保留通用性 12/15 18:46
137F:→ as6633208 : ,计算加速领域真的不要小看NV欸== 12/15 18:46
138F:→ nfsong : 大陆这些老板 和台湾嘴炮的不一样 12/15 18:47
139F:→ nfsong : Deep learning 大家都知道 12/15 18:47
140F:→ as6633208 : 你知道谷歌最新的TPU V7这个asic的算力还榨不赢通用 12/15 18:47
141F:→ as6633208 : 型gpu gb200吗,而nv还有gb300和更偏向特化强化的ru 12/15 18:47
142F:→ as6633208 : bin@@ 12/15 18:47
143F:→ nfsong : 台湾有哪家 真的去落地scaling law 弄万卡丛集 12/15 18:47
144F:推 mainsa : 这些AI语言模型都很爱顺着你的话回答 你这样诱导就 12/15 18:48
145F:→ mainsa : 算用GPT也是得到一样答案 12/15 18:48
146F:→ nfsong : 大陆 这些能出来分享的 余凯 之类的 12/15 18:48
147F:→ nfsong : 都是有实务经验 12/15 18:48
148F:推 as6633208 : by the way,2026年q2是rubin量产,2027年是rubin u 12/15 18:58
149F:→ as6633208 : ltra 更强的性能 12/15 18:58
150F:推 mamorui : 为什麽会在硬体找答案 问题出在奥特曼的模型上 硬 12/15 19:06
151F:→ mamorui : 体再好也没用 12/15 19:06
152F:推 lolpklol0975: NV护城河是CUDA被攻破还没这麽快 12/15 19:22
153F:→ josephpu : 其实目前台面上的大模型都不是用gb200训练的,真正 12/15 19:39
154F:→ josephpu : 的检验点会是明年上半年推出的大模型。goog用tpu加 12/15 19:39
155F:→ josephpu : 上ocs互联在gemini3得到很好的结果,至少不输h系列 12/15 19:39
156F:→ josephpu : 但跟gb200比起来会如何?目前不知道。再後面v7进入 12/15 19:39
157F:→ josephpu : 液冷rack架构也是一次跃进,或许市场叙事又会转变 12/15 19:39
158F:→ josephpu : ,反正ai晶片生态系之战远远不到终局,只是goog目 12/15 19:39
159F:→ josephpu : 前极高机率是能跑到最後的那批人之一 12/15 19:39
160F:推 lee198218 : 招来四面八方的洗脸 厉害了 12/15 19:41
161F:推 Marty : 看这些问题 难怪会得出这麽离谱的回答 12/15 19:41
162F:嘘 necrophagist: 可怜 用这种提示词问出来的答案拿来当宝xd 感觉ai 12/15 19:45
163F:→ necrophagist: 确实是让强者愈强弱者愈弱 12/15 19:45
164F:嘘 tim855042 : 问题就下结论 end 12/15 19:48
165F:推 banbanzon : 小屁精生图没gemini 快 额度又给得很小气 我都怀疑 12/15 19:52
166F:→ banbanzon : 显卡484被他拿去插屁眼了 12/15 19:52
167F:嘘 CaptPlanet : LLM 引发的乱象 唉 12/15 19:57
168F:推 nfsong : 论文都公开的 12/15 20:00
169F:→ nfsong : 只要有跟上 最新的论文 12/15 20:00
170F:推 mamorui : 其实辉达很衰 问题出在奥特曼身上 12/15 20:00
171F:推 kottas : 这样问法不是坏就是.. 12/15 20:01
172F:推 easyman : 好吧,这不是反串, 你有去 北检 的实力 12/15 20:09
173F:→ rancilio : 用deep research询问关於我这个领域的事情, 12/15 20:11
174F:→ rancilio : 结果是比我自己知道的还清楚,gemini查资料的本事 12/15 20:11
175F:→ rancilio : 实在是强大到难以置信,商业机密都能查到一部分 12/15 20:12
176F:→ rancilio : 我们竞争对手用的材料,优缺点各方面都比我自己清楚 12/15 20:12
177F:→ rancilio : 我在这行打滚30几年,知道的都没有gemini查到的多 12/15 20:12
178F:推 rancilio : 整合目标所有技术 专利 原料 客户反馈...做成报告 12/15 20:16
179F:→ rancilio : 而且PRO版送2TB云端,里面资料他可以帮你整理搜索 12/15 20:17
180F:嘘 ck960817 : 命题全错,前提错推论怎样都是错的 12/15 20:17
181F:→ rancilio : TPU对上GPU最大优势是推理的能耗比省电太多 12/15 20:18
182F:推 create8 : Tier1 还是要养人做马斗,而且开一颗chip 又那麽贵 12/15 20:20
183F:→ create8 : ,还是会有很多人努力把马斗改到让gpu 辗压其他对 12/15 20:20
184F:→ create8 : 手 12/15 20:20
185F:→ aewul : 进入者障碍越低越容易开放到位 12/15 20:37
186F:→ ojh : 股板一堆不懂科技的外行人 讲这种专业的没人懂 12/15 20:42
187F:→ BC0710 : 你这篇跟上一篇有什麽差别== 12/15 21:14
188F:推 chenyuchug : 当股版出现一个ID一直发文要大家相信他的时候,就会 12/15 21:24
189F:→ chenyuchug : 让我想到山椒鱼、abc还有2020年3月连续熔断後一个叫 12/15 21:24
190F:→ chenyuchug : 大家跟着放空,文章还都会上色的 12/15 21:24
191F:推 jakkx : 你第一个问题,麻烦先查清楚。後面不用看下去了 12/15 21:24
192F:→ jakkx : 你就是在证明GIGO是怎麽一回事 12/15 21:25
193F:→ jakkx : 我猜很多人惊讶你居然不是反串 12/15 21:26
194F:→ aewul : 查资料好点处理器就好不用到超级电脑 12/15 21:29
195F:嘘 chysh : 你是不是个人化设定没有加要客观回答的prompt 12/15 21:30
197F:→ BC0710 : 案也可以 看你想要哪一种答案而已 12/15 21:33
198F:推 bagaalo : 这篇大概是证明LLM跟AGI还是有一大段不同 12/15 21:58
199F:嘘 Carloslin : 可怜 这就是先射箭後画靶 12/15 22:08
200F:嘘 joey00 : 请问 A 你这次段考会赢 B 吗 12/15 22:09
201F:→ joey00 : A: 会,而且之後每次都会,我最强! 12/15 22:09
202F:→ joey00 : 已经拿五年全校第一的 B: ? 12/15 22:09
203F:推 gooddogleg : 就说你的空单哩 12/15 22:56
204F:推 a77942002 : 所以你知道现在鼓吹的AI真的是...不准确资料库集合 12/15 23:13
205F:→ a77942002 : 体~笑 12/15 23:13
206F:→ netsphere : AI:你说的都对 12/15 23:18
207F:→ kipo1019 : 好,欧硬能源 12/15 23:22
208F:推 Pipline : 给你情绪价值的ai 12/15 23:31
209F:推 hohomonkey : 再好的车 断手断脚的人没办法看开 12/15 23:44
210F:推 Tsukasa0320 : 这篇文章应该放进教科书 12/15 23:59
211F:→ Tsukasa0320 : 提醒我们为什麽AI还不能取代研究 12/15 23:59
212F:→ A10 : 我建议你先学逻辑导论 先别管AI 12/16 00:33
213F:推 ginhwa : 我很怀疑问AI关於GPU和TPU的比较有没有意义 12/16 08:49
214F:→ ginhwa : AI的立论基础是从人类各研究的大数据库而来的 12/16 08:50
215F:→ ginhwa : 认为GPU好的不可能说GPU会输,反之亦然 12/16 08:50
216F:→ ginhwa : 这充其量只能反映双方阵营对自己和对方的评论吧 12/16 08:52
217F:嘘 shoyeh : 笑死 不会用就不要乱用还上来发废文 12/16 09:48
218F:→ dferww55 : AI会顺着你的话说啦,不信你用完全相反结论方式诱 12/16 09:55
219F:→ dferww55 : 导提问试试 12/16 09:55
220F:→ qw2974 : 不要偷懒贴一堆ai叙述,不能自己精简下整理重点吗? 12/16 10:33
221F:→ qw2974 : 另外nvda现在就是放asic给其他人赚,因为他gpu太暴 12/16 10:33
222F:→ qw2974 : 利,没那麽复杂 12/16 10:33
223F:推 zonppp : 这里不是股板吗? 12/16 11:10
224F:推 Eric0605 : AI对於推导未来其实参考有限 12/16 14:39
225F:推 ACHANEW : 猴子捡到AI的下场== 12/16 15:09