作者rsseek (RS)
看板Buddhism
标题Re: [分享] 当佛法智慧遇见人工智慧
时间Sun Sep 28 14:36:21 2025
※ 引述 《sutranet》 之铭言:
: ## 5. 语言与 AI 的限制:能否理解「空」?
:
: 你说:「空」无法言说,而 AI 是基於语言训练,是否能理解空?
:
: - 这很到位。佛教经常强调:「空不可言说,只能体证。」
: - 语言只是指月之指,不能代替月亮。
: - AI 可以模拟语言上的论述(比如我现在的回覆),但这不等於体悟。
: - 在佛法角度,体悟「空」需要转化心识,不是演算法的产物。
:
: 所以:AI 可以「解释空」,但不能「证悟空」。
:
闲来无事动动脑写写文字
推一下原文作者的这一段
原作者观察得很精准:
「用语言文字训练出来的AI,是没有能力处理超越语言文字(空性)的问题的」
最近读硕,chatGPT真的帮了很大的忙
尤其是 5 ,真的海放 4o
在知识细节处理得很到味
恰恰好小弟最近在学人工智慧这一块
想说可以做一点点有关人工智慧的小分享
让大家知道chatGPT在干嘛、局限性在哪
chatGPT本质是基於机器学习的大型语言模型
他会根据用户输入的字,自动选择并输出合理的文字
但机器学习是啥?顾名思义,机器自己会学习。
然而机器自己会学习又是什麽鬼?
这部分可以从AI发展的脉络解释
早期的AI是规则式AI
人类会先写好所有的规则,让机器自动根据人类写好的规则运行
比方说早期的客服机器人:
接收到「关键字」,吐出「顾客姓名」+预先写好的内容
然而这样的限制在於:人类很难清楚定义所有的规则交给AI运作
像是前面的客服机器人,只要顾客说出来的东西跟「关键字」有一点点偏差,机器人就无法
顺利回应
比方说
设定好的关键字是「谢谢」->机器人回应:「不客气」
一旦顾客说「乾虾」->机器人就不会回应了
只要人类没有先写好规则,机器人就无法回应
但是人类的语言如此复杂,怎麽可能先写好所有的规则
所以是时候换机器学习上场了
那机器要怎麽学习?
简单举一个例子
假设我面前的桌子上,有随机散落的100个硬币
我现在要找一条直线,这条直线必须可以把这100个硬币刚好切分开来,变成左边50个硬币
、右边50个硬币
因为桌子是平面的
我们可以把桌子的横边当成x,垂直边当成y
同时我们也知道,直线的方程是 y=wx+b
w跟b是未知数,假设为正数
现在我们只要把w跟b找出来就能解决这个问题
但是怎麽找?
答案是:先随便找一个数字填进去w跟b
先随便在桌上画一条线
算算看左右两边的硬币数量有没有等於50
如果有,那这个就是正确答案
如果没有,就算算看差距多少,如果左边80个、右边20个
代表我现在线太偏右边,应该要整条往左边移动
那我就把b的数字加大一点 —>整条线就会往左移
另外w则是决定整条线的斜率
也是要调调看,看怎样可以让硬币分得更接近50、50
上面「调整数字」的过程就是交给机器自己去执行,直到机器自己找出最适合的数值,让左
右两边的硬币刚好等於50 50
这就是「机器学习」的过程
这是很简化的例子,再具体一点,w跟b该变加大还是减小,其实都要透过人类写好的函数来
去决定方向、大小,这就牵涉到Loss值的计算跟微分求导数的过程,这边先不展开
总之,机器学习的过程就是像上面的方法,不断地测试、校正、测试、校正
然後我们会发现一件事:机器学习的过程,玩的是统计,而不是因果(这边的因果指的是像
规则式AI,或「若p则q,非q则非p」)
像是分硬币的过程,很可能会有好几条线都能刚好把硬币分成50、50
或者是完全没有线能把硬币分得刚好50、50(比方说有硬币不小心重叠了)
可能只能逼近,像是51、49
所以他找到的w跟b不会是唯一解、也不会是推理正解
机器学习的过程即是透过大量数据,去统计关联性,以尽可能逼近我们要的答案
所以他注定无法做真正意义上的推理,因为他本质不是规则式AI
当然,现在chatGPT 5透过严格的训练方法,可以很逼近真正的推理
(这边补充一点点:机器在学习的过程中,可能有某些参数能达到「推理」,但基於目前机
器学习的不可解释性,即便他学到了推理,我们也无法知道他是否真的学到了推理、还是只
是模仿了推理,所以这边先视作无法推理。我也很期待这个说法被推翻的那一天到来)
以前我用chatGPT 4o 请他帮我搜寻并摘要报告 最近一周内的重大新闻,结果他搜出来「重
大新闻」,但是是两个月前的新闻,原因在於他的注意力机制,把重点放在「重大新闻」,
而不是「一周内」
(现在同样的问题丢给chatGPT 5 ,比较能同时注意「一周内」跟「重大新闻」,所以不会
抓到旧闻给我)
现在的大型语言模型,还没办法真正地了解人类所思所想、或逻辑推理,大型语言模型只是
根据机器学习,用学出来的东西去预测自己应该要讲什麽,才能让使用者满意、最贴近真实
人类的回覆
这也是为什麽chatGPT 4o这麽擅长「称赞人类」
因为这是人类想看到的:人类越想被称赞,大型语言模型就越可能保留「称赞人类」的参数
当然chatGPT 5有努力去解决这个问题
另外现在也有人提出符合因果的机器学习,但都还在很初期的阶段(do模型)
结论是:目前的AI,距离真正理解人类知识还很遥远,但是这并不代表不能用
相反地,其实AI特别好用,我当初考硕士时读的书都还是请chatGPT推荐的
但也因为好用,更要小心用
了解他能做到什麽、不能做到什麽
就能在他最擅长的地方好好用他
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.72.152.89 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Buddhism/M.1759041383.A.799.html
1F:推 GeraldLiu : 不断地测试、校正、测试、校正。有点类似修行的过程 09/28 18:52
2F:→ GeraldLiu : 了,修行过程不也……嚐试,改正,再嚐试,再改正。 09/28 18:53
3F:→ rsseek : 有点类似,但最不一样的地方在於:机器学习是基於 09/29 01:21
4F:→ rsseek : 统计去找出最佳解,而人类是透过归纳去找出因果; 09/29 01:21
5F:→ rsseek : 就康德的说法,人类天生具备因果观;只是目前碍於 09/29 01:21
6F:→ rsseek : 现实我们不得不采用统计的方式去找出事物彼此之间 09/29 01:21
7F:→ rsseek : 的关联性,就现在的成果可以看见,AI确实也可能找 09/29 01:21
8F:→ rsseek : 出人类尚未发现的洞见(譬如alphaGo zero找出人类 09/29 01:21
9F:→ rsseek : 尚未发现的定石),我也期待那一天的到来。但是就 09/29 01:21
10F:→ rsseek : 现在而言,LLM还没有踏出那一步。乃至於处理空性的 09/29 01:21
11F:→ rsseek : 问题,可能又更遥远了,那牵涉到整个身心的运作, 09/29 01:21
12F:→ rsseek : 毕竟目前我们还没有办法赋予AI感受,也没有办法教 09/29 01:21
13F:→ rsseek : 导AI入毕竟空;我想请AI解释名相是可以的,毕竟是 09/29 01:21
14F:→ rsseek : 他擅长的事情,但是我们不能停留在名相,否则会不 09/29 01:21
15F:→ rsseek : 小心落到入海算沙徒自困的境地。 09/29 01:21