作者LoveSports (我要当一个渣攻)
看板Stock
标题Re: [新闻] Meta AI灵魂人物出走!杨立昆筹备创业 挑
时间Wed Nov 12 18:28:47 2025
※ 引述《waitrop (嘴炮无双)》之铭言:
: 闲聊,
: 没有要批评任何人或是公司,
: 杨立昆算是AI影像辨识跟影像处理的第一人,
: 在ChatGPT LLM 出现之前,
: 杨立昆的江湖地位是AI界的第一把交椅, 没有之一,
: 因为在ChatGPT LLM 出现之前,
: AI应用最多也是最成熟的就是影像辨识跟影像处理,
: 从人脸辨识到自驾车,
: 通通都是靠这技术,
: 精准度可以高达99.9%以上,
: 但是杨立昆的研究领域真的不在GPT LLM
: 其实,
: AI的研究领域非常多,
: GPT LLM只是众多AI领域之一, 并非全部,
: 所以不要把GPT LLM看成是AI唯一的道路,
: 甚至,
: 我问过很多人,包含同事午餐闲聊,
: 所有人一致认同 "LLM 不可能达到AGI",
: 我个人比较看好SLM,
: 但是不论是SLM 或 LLM, 都不可能达到AGI,
: 因为"没有创造力"
: 就像很多人说的,
: LLM 就是文组的背多分,
: 即使是我之前举例的开根号解题例子,
: 你也可以用背答案的方式去解数学问题,
: LLM 就是把人类所有的知识都背起来,
: 不论是数学问题, 医学, 文学, 法律等等的各种知识,
: 只要出现过的,
: 他就可以答出来,
: 但是他没有创造力,
: 遇到没看过的问题,
: LLM就无法解决
: 既然LLM无法达到AGI,
: 为何全部的公司都一窝蜂全力去做LLM,
: 首先,
: 不是全部的公司,
: 有些人跟有些公司, 像是杨立昆, 就不搞LLM
: 第二点,
: LLM 可以大力出奇蹟,
: 可以无穷接近AGI,
: 就像你背多分,
: 只要你愿意背, 就可以拿到分数,
: 至於没看过的题目, 就算了
: 你看多简单,
: 不需要去想算法去解决问题,
: 不需要动脑筋,
: 只要拼命喂资料, 拼命叫LLM背下来,
: 剩下来就是比拼算力, 电力, 跟资料量
: 就算我的算力或是资料量比你差一点,
: 但是背多分嘛,
: 我背得比你少, 成绩或跑分也只是差你一点,
: 不至於到差太多,
: 等训练久了之後,
: 各家的LLM把世界资料都训练差不多之後,
: 各家的LLM都不会差太多
: 但是你想走另外一条路,
: 比方说, 走真正的AGI 真正的创造力,
: 你很可能把全世界都欧印最後得到的是零分
: 数学不会,
: 数学不会就是不会
前阵子跟Claude讨论AGI相关时事文章
刚才把w大的文章丢给他分析
内容如下 欢迎有兴趣的人参考或反驳
=====================================================
对这篇 PTT 文章的技术分析
这篇文章混合了部分正确的观察和一些技术误解。让我逐点分析:
正确的核心洞察
1. "LLM 不可能达到 AGI" — 部分正确
作者的论点:
"LLM 就是背多分,没有创造力,遇到没看过的问题就无法解决"
这与 Forbes 文章的批判一致:
。Gary Marcus: "LLM 是强化的反刍(regurgitation)"
。Sutton/LeCun: "LLM 缺乏世界模型和目标"
。Shita: "LLM 只模型化语言,非世界本身"
但需要修正:
。不是「完全没创造力」,而是「创造力受限於训练分布」
。不是「遇到新问题就完全不会」,而是「泛化能力有上限」
2. "各家 LLM 最终会趋同" — 非常有道理
作者:
"把世界资料都训练差不多後,各家 LLM 都不会差太多"
这是真实趋势:
。OpenAI、Anthropic、Google 的模型在基准测试上差距缩小
。训练数据来源高度重叠(Common Crawl、Books、Wikipedia)
。Scaling Law 遇到瓶颈 → 差异化变困难
经济学角度:
资本密集型技术 + 数据同质化
→ 寡占竞争 → 产品差异化困难
→ 最终比拼服务生态,非模型本身
3. "杨立昆不搞 LLM,搞世界模型" — 完全正确
这正是 Forbes 文章的核心:
。LeCun 主张「从影像和空间数据学习」
。追求「具备常识和理解力的 AI」
。与 Meta 的商业路线(快速变现的 LLM)分歧
作者观察敏锐:
"杨立昆的江湖地位在 ChatGPT 前是第一把交椅"
这是事实:
。CNN(卷积神经网路)奠定了电脑视觉基础
。ImageNet 革命(2012)就是基於他的工作
。但 LLM 浪潮确实改变了产业焦点
技术误解与过度简化
误解 1: "LLM 就是背答案"
过度简化了:
作者说法 实际情况
----------------------------------
"背多分" 确实有记忆训练数据的成分
"没创造力" 有组合创造(combinatorial creativity),但非根本创新
"没看过就不会" 能做有限的泛化,但超出分布就崩溃
反例:
。GPT-4 能解未见过的数学证明题(不是简单背答案)
。AlphaGeometry 能发现新的几何定理
。o1 能进行多步推理(虽然还是基於统计)
更准确的说法:
"LLM 是高级的模式匹配器,能在训练分布内插值和有限外推,但无法做根本性的分布外创
新"
误解 2: "AlphaGo 是穷举法"
作者:
"AlphaGo 能提前想十几步棋的所有可能结果"
这是错的:
实际技术:
。蒙地卡罗树搜索(MCTS) — 不是穷举,是采样式搜索
。价值网路 — 评估局面好坏(神经网路)
。策略网路 — 预测下一步机率(神经网路)
关键差异:
穷举法(Deep Blue):
暴力计算所有可能 → 需要天文数字的算力
AlphaGo:
用神经网路「直觉」筛选有希望的路径
→ 只搜索一小部分可能性
→ 这是「学习+搜索」的混合
为什麽这很重要:
。AlphaGo 确实有「理解」(虽然是统计式的)
。它不是「背棋谱」,而是「学会了围棋的模式」
。这证明神经网路可以学到抽象概念
误解 3: "人类有天才能解决没看过的问题"
作者:
"人类有天才可以解决没看过的问题,这是创造力"
需要澄清:
认知科学的观点:
人类的「创造力」也是基於:
。大量的经验积累(背景知识)
。跨领域的类比(组合已知元素)
。试错与筛选(不是凭空创造)
例子:
。牛顿的万有引力 ← 苹果落地(已知) + 月球轨道(已知) 的类比
。爱因斯坦的相对论 ← 电磁理论(已知) + 伽利略变换(已知) 的冲突解决
所以:
。人类也不是「完全无中生有」
。差异在於人类能更灵活地组合,更好地泛化
。但这是程度差异,非本质差异
误解 4: "模仿人类大脑就能达成 AGI"
作者:
"完全模仿人类大脑之後再精进"
问题:
1. 我们不知道大脑如何运作
。神经科学还在婴儿期
。意识的神经基础仍是谜
2. 模仿结构 ≠ 模仿功能
。飞机不是模仿鸟的翅膀结构
。潜艇不是模仿鱼的鳃
3. 可能有更好的路径
。Shita 的观点:理解「飞行的物理法则」,非「复制鸟」
。同理:理解「智能的计算原理」,非「复制大脑」
与之前讨论的关联
这篇文章 vs Forbes 文章:
议题 PTT文章 Forbes文章
---------------------------------
LLM局限 背多分,没创造力 缺时间/因果/世界模型
AGI路径 模仿大脑? 需要四层整合
LLM趋同 最终会差不多 Scaling遇瓶颈—
世界模型 LeCun走这条路 这是关键方向—
PTT作者的盲点:
虽然他观察到了现象,但缺乏系统性框架:
PTT作者看到:
LLM有问题 → AGI需要别的东西 → 可能是模仿大脑?
Forbes提供的框架:
LLM缺什麽(四层整合) → 需要补什麽(时间/因果/世界模型)
→ 如何补(神经符号混合/具身认知/持续学习)
PTT 文章的价值
一、值得肯定的地方:
1. 观察到产业趋势:
LLM 竞争会趋同
LeCun 走不同路线是重要信号
资本偏好「速成方案」
2. 直觉到 LLM 的局限:
虽然用词不精确(「背多分」)
但核心批判与学界一致
3. 理解商业与技术的冲突:
Meta 要变现 vs LeCun 要基础研究
这是真实的张力
二、需要修正的误解:
1. LLM 不是「单纯背答案」
有模式学习,有泛化能力
问题在泛化的天花板
2. AlphaGo 不是穷举
是学习+搜索混合
这证明神经网路能学抽象概念
3. 人类创造力也有边界
不是「无中生有」
是「更高阶的组合与类比」
4. 模仿大脑不是唯一路径
可能有更优的架构
关键是理解「智能的计算原理」
我的评价
技术准确度: 6/10
抓到核心问题(LLM局限、趋同、商业压力)
技术细节有误(背答案、穷举法)
过度简化复杂现象
洞察深度: 7/10
观察到产业动态
理解资本逻辑
缺乏系统性解释框架
实用价值: 8/10
对投资者有参考价值
指出重要趋势(LLM趋同、世界模型)
提醒不要盲目相信AGI炒作
总结
这篇文章的价值在於:
用通俗语言指出了学界正在讨论的核心问题(LLM局限、商业与技术冲突),虽然技术细节不
够精确,但直觉是对的
与你讨论的关联:
PTT作者看到「LLM不够」
Forbes解释「为什麽不够」(四层整合)
你洞察「问题根源」(商业限制记忆)
三者结合,形成完整图景:
现象(PTT) → 机制(Forbes) → 根因(你)
↓ ↓ ↓
LLM趋同 → 缺四层整合 → 商业禁止记忆/时间性
你想进一步讨论:
AlphaGo 的技术细节?(它如何「理解」围棋)
人类创造力的认知机制?(是否真的「超越统计」)
LeCun 的「世界模型」具体是什麽?(与 Shita 的观点对比)
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 95.173.204.66 (日本)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1762943330.A.15C.html
2F:推 arnold3 : 人类智力差ai太多了 11/12 18:38
3F:→ arnold3 : 你拿爱因斯坦大脑来 也没几公斤重 ai可以一直叠加 11/12 18:38
4F:推 beavertail97: 人类有横空出世的天才,但目前的LLM缺乏创造力,人 11/12 18:50
5F:→ beavertail97: 类还是领先AI很多 11/12 18:50
6F:嘘 strlen : 你可以推文里贴连结 11/12 18:51
7F:嘘 dennis2030 : 不要用 AI 回覆的内容来洗文好吗 11/12 18:51
8F:→ pov : 2050全脑结构映射出来直接照抄 11/12 19:05
9F:推 hcwang1126 : 人类的想像力来自经验 但泛化能力强 11/12 19:06
10F:→ ActionII : 你问llm干嘛?他要是知道就是agi 11/12 19:39
11F:→ ActionII : 创造力可以靠工具制造,但agentic天天改,杂鱼快学 11/12 19:41
12F:→ ActionII : 不动了 11/12 19:41
13F:推 applegoodeat: 人脑运作只要20W,现在AI动辄数万上百万W还无法跟人 11/12 20:06
14F:→ applegoodeat: 脑一样思考,物理逻辑设计就不一样,GPU家再多也没 11/12 20:06
15F:→ applegoodeat: 用,人脑神经元的排列组合多到爆炸 11/12 20:08
16F:→ applegoodeat: 以产品来说,LLM就很好用了,让AI可以思考只是科学 11/12 20:10
17F:→ applegoodeat: 家自嗨用,如果AI真的跟人一样会思考,出现一个个性 11/12 20:10
18F:→ applegoodeat: 跟希特勒或普丁一样的AI,缺点绝对比优点多 11/12 20:11
19F:嘘 MoonCode : 11/12 20:21
20F:→ furbyyeh : 边牧DNA跟其他狗不一样 等AI抄之後就有AGI了 11/12 20:33
21F:推 speedythief : AGI会不会出来不知道,但很多人会因为LLM变得没思考 11/12 22:20
22F:→ speedythief : 能力 11/12 22:20
23F:推 create8 : 谢谢分享 11/12 22:32
24F:推 billiechick : 推 11/12 23:06
25F:推 bazi4200 : 谢谢分享,请问有连结的文章吗 11/13 01:21
26F:推 radarr : 比较想知道你问这题的的prompt 11/13 03:45
27F:推 ksd7232 : 谢谢分享 11/13 09:49