作者dreambreaken (小灭灭)
看板Stock
标题Re: [心得] 苹果揭露人工智能并不思考
时间Mon Jun 16 10:54:34 2025
我觉得大家对AI要求过多了
设想一个情况
中餐的厨师
他们如何学习厨艺?
答案是
我师父教我的
然後我熟能生巧照抄-4o程度
那这种训练出来的厨师有推理能力吗?
现代西方的厨师
学习每个调味、温度
利用科学做出一些创新菜-o3程度
这样的厨师有推理能力吗?
我跟你说他们还是没有
因为一堆创新菜难吃死了
而现在O3能做到的就是他们的程度
O3利用科学、人类已知告诉你怎样可以做
这不就是99%以上的人类极限能做到的事情?
现在人期待AI可以做到全人类做不到的事情根本就不切实际
他能做到的只有5年内达到99%人类能做到的事情
光是这点就就已经很可怕
※ 引述《midas82539 (喵)》之铭言:
: 大语言模型(LLM)它的原始目的是要「模仿人类回答出人类看得懂的答案。」
: 但跟人类的语言不同,你我使用的与言语表达会是一系列的文字规则,
: 例如「主词,动词,受词」的SVO结构。
: 但模型本身并不是这样学习的,它是把你看到的字,拆成词素(token)
: 然後将这些词向量化,变成一系列数列:
: king → [0.8, 0.1, 0.3, 0.7]
: queen → [0.9, 0.1, 0.5, 0.9]
: man → [0.9, 0.0, 0.3, 0.6]
: woman → [0.8, 0.0, 0.5, 0.8]
: 这个数列可以很长,例如有必要的话,可以到有300多个。然後模型可以找到特徵。
: 这个特徵用人类可以理解例子,就姑且浓缩成一个角度,便为说明就简化成:
: king=右上 man=右上
: queen=左上 woman=左上
: 那麽就算是你,也可以找到king跟man都是右上,故似乎有关连性。
: 而king跟queen角度不同,所以这两个不是同样的东西。
: 再把朕、殿下、皇帝、国王,排在一起。
: 只要资讯够多,理论上是可以让模型自己圈出有向量角度相近的集合。
: 我们可以再增加这个字出现在字首、字尾、中间第几个字的频率作为变数。
: 那麽就可以算出这个字出现在哪里的特徵比较大。
: 这时我们回到刚刚的SVO结构,模型就可以在不懂中文,但凭统计出的特徵,
: 可以拼凑出一个你可以看懂的中文回答。
: 然而这并不是人类的理解与语意判定,以及衍伸的推理。
: 所以它就会造就出「中文房间」的错觉,例如假设一个外国人被关在房间。
: 但他有一本教战手则,上面说明了那些字出现了,可以给出哪些答案。
: 那他就算不懂中文,在手册的指引上也可以回答定型文。
: 大语言模型也是同样的概念,它是基於大量的资料来找出「特徵」,
: 而这些特徵的组合在在它的神经网络会给予特定的权重,最後形成类似"手册"
: 的东西,然後依照手册找到近似值的解答,生成给你看。
: 但它不见得是理解回答是否有意义,所以才会出现错误。
: 比如说很常见的,现在threads被一堆诈骗仔用AI生成图片,
: 例如啥我是护理师给我一个赞好吗?但里面的图片会出现一些错误,
: 例如叙述自己是75年出生,但生成的身分证是57年出生。
: 或者有生成名字了,但它的字型大小很明显不一致。
: 然而对於模型来说,它不会知道"怎麽样才是对的格式",而它只是针对
: 中华民国身分证大概是长怎样,而随机生成一个结果。
: 故单纯直接产出,就免不了会有以上的问题。
: GPT4-O3它是说有多一个推理功能。然而它的底层还是大语言模型(LLM)
: 加上它的数据处理是弄成很长串的多维资料,你人类也看不懂,
: 所以你还是不会知道,它的推理过程,是不是也是模仿生成人类看得懂的逻辑。
: 但这个算法是否正确与必要,不见得正确。
: 这个问题在你处理只有你会面对的数学问题就有机会发生。
: 例如假设你要模型生成一个模型由0至指定最大值,与指定最小值机率递减,
: 而机率递减的分配公式,正常我们人类就是设一个权重来分配。
: 但我问过O3它就很奇葩,它想用自然常数来分配,然後算式会出现错误。
: 其他你看过的就是GPT跟deepseek下西洋棋,结果deepseek凭空出现棋子,
: 或者无视规则走奇怪的动作。这些都说明了语言模型并不是真的了解规则,
: 而只是像两只猴子看人类下棋,而模仿人类玩西洋棋。
: 由於这不是你熟知的建立规则(base rule),所以在面对复杂的随机模拟。
: 它可能做出错误的资讯,而你没有发现错误的话,它就会继续引用上下文
: 而给出错误的结论,但你看起来觉得是对的。
: 比如说你不会选择权,但你想要模型直接生成一个卖方与调整策略。
: 而模型基於call有正的delta,而错误认为sell call也有正dela,
: 那它就会继续基於错误资讯引用,而得出:
: 当标的价格趋近於SC履约价,整体delta会变正而且增加,故需要买put调整的规则。
: 当然对我来说我可以看出哪里有问题,但对於没有理解的人来说,
: 那他就不会发现这个推理与建立规则错误,就会导致利用而产生亏损。
: 而这我认为基於大语言模型的训练方式,本质上是无解。
: 你只能靠自己判断模型的回答是否逻辑正确。而不是期望模型像神灯精灵,
: 你不用会你也可以产出一个东西跟专业的人竞争。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 60.250.75.123 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1750042476.A.E6A.html
1F:推 xross : 顺便说一下 王刚连菜刀都不会拿 也是做菜大师 06/16 11:02
※ 编辑: dreambreaken (60.250.75.123 台湾), 06/16/2025 11:12:34
2F:→ qwe78971 : O3 纸上谈兵 而且没有纠错能力 你写过程式就知道 06/16 11:34
3F:→ qwe78971 : 某些错误遇到 即便你再怎麽解释你想要的 它始终会 06/16 11:34
4F:→ qwe78971 : 在同一个点摔跤 甚至你传一张图片上去 告诉它不需 06/16 11:34
5F:→ qwe78971 : 任何改动 它仍然会改动 放五次十次後 原图是什麽就 06/16 11:34
6F:→ qwe78971 : 看不出来了 06/16 11:34
7F:→ qwe78971 : AGI叫 通用型人工智能 定义可以去查查 跟 现在LLM 06/16 11:36
8F:→ qwe78971 : 差太多 更别提 现实世界是时刻变化 现在AI只能在静 06/16 11:36
9F:→ qwe78971 : 态可控的场景 未来这点没变 就是在网路上打打嘴炮 06/16 11:36
10F:→ qwe78971 : 靠海量数据捞资料而已 最多当辅助工具 06/16 11:36
已经讲了
你拿超越全人类的标准去看他就已经有问题
你有试过拿他去跟其他人比pr多少?
你会走在路上要求一个人去证明费马大定理?
如果不会为什麽你会要求他做到这件事情?
4o顶多是助理
o3已经是我每天都在跟他学东西
我认为他已经超过99%人类已知
11F:推 tiger870316 : 我觉得Ai能达成完美辅助工具是最好的结局了吧 06/16 11:59
※ 编辑: dreambreaken (60.250.75.123 台湾), 06/16/2025 12:02:01
※ 编辑: dreambreaken (60.250.75.123 台湾), 06/16/2025 12:05:43
12F:推 tsubasawolfy: 图片改变那个比较像它们设计上缺陷就是了 06/16 12:22
13F:→ tsubasawolfy: 每张图就算跟他说不用动,但还是会用它们自己的方式 06/16 12:22
14F:→ tsubasawolfy: 描述一次後重新产图 06/16 12:23
15F:→ tsubasawolfy: 那个变动就跟传话接龙一样 06/16 12:23
16F:推 Kydland : 楼上的比喻真好! 06/16 12:28