作者jodawa (jodaway)
看板Stock
标题Re: [心得] 苹果揭露人工智能并不思考
时间Mon Jun 16 14:09:18 2025
※ 引述《midas82539 (喵)》之铭言:
: 大语言模型(LLM)它的原始目的是要「模仿人类回答出人类看得懂的答案。」
: 但跟人类的语言不同,你我使用的与言语表达会是一系列的文字规则,
: 例如「主词,动词,受词」的SVO结构。
: 但模型本身并不是这样学习的,它是把你看到的字,拆成词素(token)
: 然後将这些词向量化,变成一系列数列:
: king → [0.8, 0.1, 0.3, 0.7]
: queen → [0.9, 0.1, 0.5, 0.9]
: man → [0.9, 0.0, 0.3, 0.6]
: woman → [0.8, 0.0, 0.5, 0.8]
: 这个数列可以很长,例如有必要的话,可以到有300多个。然後模型可以找到特徵。
: 这个特徵用人类可以理解例子,就姑且浓缩成一个角度,便为说明就简化成:
: king=右上 man=右上
: queen=左上 woman=左上
: 那麽就算是你,也可以找到king跟man都是右上,故似乎有关连性。
: 而king跟queen角度不同,所以这两个不是同样的东西。
: 再把朕、殿下、皇帝、国王,排在一起。
: 只要资讯够多,理论上是可以让模型自己圈出有向量角度相近的集合。
: 我们可以再增加这个字出现在字首、字尾、中间第几个字的频率作为变数。
: 那麽就可以算出这个字出现在哪里的特徵比较大。
: 这时我们回到刚刚的SVO结构,模型就可以在不懂中文,但凭统计出的特徵,
: 可以拼凑出一个你可以看懂的中文回答。
: 然而这并不是人类的理解与语意判定,以及衍伸的推理。
: 所以它就会造就出「中文房间」的错觉,例如假设一个外国人被关在房间。
: 但他有一本教战手则,上面说明了那些字出现了,可以给出哪些答案。
: 那他就算不懂中文,在手册的指引上也可以回答定型文。
: 大语言模型也是同样的概念,它是基於大量的资料来找出「特徵」,
: 而这些特徵的组合在在它的神经网络会给予特定的权重,最後形成类似"手册"
: 的东西,然後依照手册找到近似值的解答,生成给你看。
: 但它不见得是理解回答是否有意义,所以才会出现错误。
: 比如说很常见的,现在threads被一堆诈骗仔用AI生成图片,
: 例如啥我是护理师给我一个赞好吗?但里面的图片会出现一些错误,
: 例如叙述自己是75年出生,但生成的身分证是57年出生。
: 或者有生成名字了,但它的字型大小很明显不一致。
: 然而对於模型来说,它不会知道"怎麽样才是对的格式",而它只是针对
: 中华民国身分证大概是长怎样,而随机生成一个结果。
: 故单纯直接产出,就免不了会有以上的问题。
: GPT4-O3它是说有多一个推理功能。然而它的底层还是大语言模型(LLM)
: 加上它的数据处理是弄成很长串的多维资料,你人类也看不懂,
: 所以你还是不会知道,它的推理过程,是不是也是模仿生成人类看得懂的逻辑。
: 但这个算法是否正确与必要,不见得正确。
: 这个问题在你处理只有你会面对的数学问题就有机会发生。
: 例如假设你要模型生成一个模型由0至指定最大值,与指定最小值机率递减,
: 而机率递减的分配公式,正常我们人类就是设一个权重来分配。
: 但我问过O3它就很奇葩,它想用自然常数来分配,然後算式会出现错误。
: 其他你看过的就是GPT跟deepseek下西洋棋,结果deepseek凭空出现棋子,
: 或者无视规则走奇怪的动作。这些都说明了语言模型并不是真的了解规则,
: 而只是像两只猴子看人类下棋,而模仿人类玩西洋棋。
: 由於这不是你熟知的建立规则(base rule),所以在面对复杂的随机模拟。
: 它可能做出错误的资讯,而你没有发现错误的话,它就会继续引用上下文
: 而给出错误的结论,但你看起来觉得是对的。
: 比如说你不会选择权,但你想要模型直接生成一个卖方与调整策略。
: 而模型基於call有正的delta,而错误认为sell call也有正dela,
: 那它就会继续基於错误资讯引用,而得出:
: 当标的价格趋近於SC履约价,整体delta会变正而且增加,故需要买put调整的规则。
: 当然对我来说我可以看出哪里有问题,但对於没有理解的人来说,
: 那他就不会发现这个推理与建立规则错误,就会导致利用而产生亏损。
: 而这我认为基於大语言模型的训练方式,本质上是无解。
: 你只能靠自己判断模型的回答是否逻辑正确。而不是期望模型像神灯精灵,
: 你不用会你也可以产出一个东西跟专业的人竞争。
在现代哲学的知识论中将[知识获得]分为两种类型,
一种叫[内部论],一种叫[外部论]。
内部论强调的是对知识或主张背後整套理论或观念的理解和掌握,
而外部论强调的是放弃主观理解,以外在的权威、舆论声量等来判别知识。
原PO说的[中文房]就是很典型的外部论,
LLM目前采用的方法就是主要透过的方式找出答案,
但是可以完全跳过所谓的[理解]。
而作为一项[工具],这其实也完全没有问题,
但就如楼主说的,你必须有起码的知识背景才好配合用它,
否则LLM说出的事似真实假的东西,你也看不出来,反而害更大,因为它不会说他不懂。
他是负责给答案看看是否过关的中文房内的机器人,他不负责[理解]。
这并非说AI发展毫无处理[理解],之前的深蓝、阿法狗等已经在围棋方面屌打人类,
但是他这套演算法就只负责下围棋,你叫它说话它能力是0,叫他认图、画图也是0。
阿法狗跟深蓝又不一样,它不是靠暴力演算法下赢人类的,它是真的[理解]围棋的
[逻辑]:只要你给它明确的游戏规则,它能慢慢累积算出最佳解。
(这幕後最大的英雄我觉得是发展出那些演算法的人类)
本来LLM尝试用一样的[规则理解]来开发,可是碰壁,
於是後来改采归纳法为主的算法,加上[权重]、[反溯]等能力,以及人工训练,
结果产生重大突破。
其实这种学习法也确实在某方面比较符合人类(和动物)的学习历程,
人类的初始学习并非靠一套内洽的理论,
也是不断的试错、反馈,然後形成可行的模糊知识,并容许後续的修正。
认图、画图AI也是一样的,它并不(也无须)理解它在画甚麽,
它是靠大量局部训练过画好的图,组合起来,
交给人类去判断是否过关,
如果不过关,就下次重画,大量的反馈机制使它越画越好。
但是它不知道自己在画啥,你叫它画[猴子],它只是画出千锤百链的外貌,
它没有理解[猴子]生物特性。
当然,也许语言模型跟画图模型串在一起,能发挥这样的功能,我就不知道了。
当然[通用型AI]似乎仍有关键性的落差,
也确实其实所谓[AI]其实是个[集合称],
负责画图的AI跟负责模仿语音的AI,可能除了在开发模型上有共享一些方法外,
其他方面天差地远。
但是AI仍然有庞大的发展潜力,
因为它是由电力直接驱动的,只要给它演算法、资料,
它可以24小时不停歇的进步下去。
另一方面,更关键的是,它不需要全然仿照人类的智力来运作,
它只要在某些特化功能上,比人类干得好就行了。
比如车跑得比人快、起重机举的比人有力、风扇吹的风比人强,
AI也是一样的道理,
其实不需用人的判准来评价它,例如自觉、思考、价值观、情感等等的,
因为它目前主要就是[工具],而且是人发明出来的,
只是它确实潜力强大,拥有部分人类难以驾驭的潜力,
这就好像核武一样,为善为恶其实看人的造化。
而且通用型AI很可能不是好事,
虽然AI似乎只是特化功能很强的[计算机],
但是人脑其实目前来看也是神经细胞花几亿年演化出来的,
没有理由断定电脑无法办到。
而如果它办到了,肯定是千古巨变,後面会怎样都不知道。
扯远了,总而言之,就算AI不会[思考]也不怎样,
它只要某功能好用就够了,这本来就是如何理解AI的特质和目标。
因为人脑也会犯很多错,而且很容易累,
AI就是能把某些人类能做到的事,
用千百倍的精神做好,然後资料蒐集很快很广,
一个任务它就帮你参照古今往来的案例丢答案给你,
对不对就靠你自己判断了,
这样还不够好吗? 已经很好了,
若还要它更好,它就要反客为主了。
--
奥兹:你可以吃一堆香蕉!
芬利:哦,我懂了,就因为我是一只猴子,所以我一定要喜欢香蕉!
奥兹:你不喜欢香蕉吗?
芬利:别傻了! 我当然喜欢香蕉,我可是一只猴子!我只是不喜欢你的推论方式。
https://philog8sophia.blogspot.com/
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 219.70.152.25 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1750054168.A.485.html
1F:推 VVizZ : 那人类是怎麽理解猴子的 06/16 14:10
2F:推 hensel : 怎麽好像一堆人不会思考在社会也活的好好的 06/16 14:17
3F:推 rxsmalllove : 为啥在社会上活得好好的一定需要思考XD 06/16 14:36
4F:→ wahaha99 : 1F 你确定人类理解猴子吗 06/16 14:39
5F:→ jodawa : 人类跟猴子也算远古同宗室啊 06/16 14:43
6F:推 VVizZ : 我的意思是说人类怎麽理解眼前的东西是猴子的 06/16 14:53
这问题其实很有趣,牵涉到语言哲学的意义、语意问题,
语言是一种有游戏规则但无绝对严格规则的活动。
用维根斯坦的话来说,像是一场游戏。
众人的互动形成大致共识,但是仍有创造的空间。
有一案例可以参考是哲学家Quine的 [Gavagai]案例,
即便你看到语言不同的原住名,每次看到兔子都说'Gavagai',
你也无法断定Gavagai=兔子,
也许Gavagai的意思是白色、猎物、食物、好运...,
除非有更多参照资讯,让你能深化理解,
但是这始终是一种非完美的归纳法。
(内部论、外部论就是Quine的主张)
人们对[猴子]的理解当然也有不同面相,
可能约定俗成,也可能是现代的基因、生物学,
但也是有生物学研究人们才知道,鸡的祖先是恐龙、海豚被归为哺乳类等等,
这些知识显然古人不会懂,所以对一物或概念的理解显然会随着背景知识转变而转变。
根据语言学家研究,人类似乎天生内建一套语言认知系统,
只要在幼年经过适当的刺激,很快能触类旁通,
学习使用甚至创造性使用一套语言,但是只有一套。 (母语)
简言之,人学习概念、语言的过程适复杂的,也可能是先外部、後内部,
而这跟知识的学习路径是类似的,先依循传统,学而熟习之,
然後融会贯通後,就能举一反三,一以贯之。
这与鹦鹉学语是截然相反的。
至於说判别眼前的猴子是猴子,
这应该牵涉到认知科学,
但我印象中,人类辨别能力和现在的AI应用也是有些异曲同工之妙的,
比如人类的天生的人脸辨识系统,直觉认知、经验记忆等,
接续才是背景知识等等更复杂的认识。
人类的大脑也是多工运行的,有的监识表情、有的观察细节、声音、色泽光暗、
行动等等的,然後再形成统觉。
或是再连到概念、语言区,
总之大脑是非常奥妙的东西。
※ 编辑: jodawa (219.70.152.25 台湾), 06/16/2025 15:31:22
7F:推 HEINOUS : 看到猴->大人说那是猴子->人生过程看到 06/16 15:09
8F:→ HEINOUS : 各式各样的猴子->念猴子的书籍影片 06/16 15:10
9F:→ HEINOUS : 形成猴子的认知知识 06/16 15:11
10F:→ OnePiecePR : 内部外部,怎麽不用理性主义跟经验主义?NLP一开始 06/16 15:13
11F:→ OnePiecePR : 是尝试规制。LLM 是规则失败只好用神经元、参数, 06/16 15:13
12F:→ OnePiecePR : 所以才称为 large LM, 何来 LLM 用规则。用规则模 06/16 15:13
13F:→ OnePiecePR : 型就不大了。 06/16 15:13
14F:→ OnePiecePR : 我看过一本关於东方哲学跟人工智慧的书,是中央大 06/16 15:16
15F:→ OnePiecePR : 学出的书,里面一大堆老哲学家,他们对AI对人工智 06/16 15:16
16F:→ OnePiecePR : 慧对生成式AI的认识都非常精准,也就是他们当哲学 06/16 15:16
17F:→ OnePiecePR : 家都是认真读过才会发表的。 06/16 15:16
18F:→ jodawa : yes one大,内部论外部论、用理性、经验类比颇通 06/16 15:33
19F:→ mystage : 推。另外目前多模态,理论上功能模型间应该会有交 06/16 17:27
20F:→ mystage : 互。我认为有机会再涌现新的理解 06/16 17:27
21F:→ Kroy : 猴子不就吱吱叫个不停,喜欢吃香蕉的动物吗? 06/17 08:07
22F:→ Kroy : 这有很难判断吗 XD 06/17 08:07
23F:推 howdiee : 寮国泰国的高山长臂猿就是呼呼叫 一辈子没看过香蕉 06/17 11:55