作者MartinJu (荒谬人生)
看板Buddhism
标题Re: [分享] 当佛法智慧遇见人工智慧
时间Mon Sep 29 03:56:30 2025
※ 引述《rsseek (RS)》之铭言:
: ※ 引述 《sutranet》 之铭言:
: : ## 5. 语言与 AI 的限制:能否理解「空」?
: :
: : 你说:「空」无法言说,而 AI 是基於语言训练,是否能理解空?
: :
: : - 这很到位。佛教经常强调:「空不可言说,只能体证。」
: : - 语言只是指月之指,不能代替月亮。
: : - AI 可以模拟语言上的论述(比如我现在的回覆),但这不等於体悟。
: : - 在佛法角度,体悟「空」需要转化心识,不是演算法的产物。
: :
: : 所以:AI 可以「解释空」,但不能「证悟空」。
: :
: 闲来无事动动脑写写文字
: 推一下原文作者的这一段
: 原作者观察得很精准:
: 「用语言文字训练出来的AI,是没有能力处理超越语言文字(空性)的问题的」
: 最近读硕,chatGPT真的帮了很大的忙
: 尤其是 5 ,真的海放 4o
: 在知识细节处理得很到味
: 恰恰好小弟最近在学人工智慧这一块
: 想说可以做一点点有关人工智慧的小分享
: 让大家知道chatGPT在干嘛、局限性在哪
: chatGPT本质是基於机器学习的大型语言模型
: 他会根据用户输入的字,自动选择并输出合理的文字
: 但机器学习是啥?顾名思义,机器自己会学习。
: 然而机器自己会学习又是什麽鬼?
: 这部分可以从AI发展的脉络解释
: 早期的AI是规则式AI
: 人类会先写好所有的规则,让机器自动根据人类写好的规则运行
: 比方说早期的客服机器人:
: 接收到「关键字」,吐出「顾客姓名」+预先写好的内容
: 然而这样的限制在於:人类很难清楚定义所有的规则交给AI运作
: 像是前面的客服机器人,只要顾客说出来的东西跟「关键字」有一点点偏差,机器人就无法
: 顺利回应
: 比方说
: 设定好的关键字是「谢谢」->机器人回应:「不客气」
: 一旦顾客说「乾虾」->机器人就不会回应了
: 只要人类没有先写好规则,机器人就无法回应
: 但是人类的语言如此复杂,怎麽可能先写好所有的规则
: 所以是时候换机器学习上场了
: 那机器要怎麽学习?
: 简单举一个例子
: 假设我面前的桌子上,有随机散落的100个硬币
: 我现在要找一条直线,这条直线必须可以把这100个硬币刚好切分开来,变成左边50个硬币
: 、右边50个硬币
: 因为桌子是平面的
: 我们可以把桌子的横边当成x,垂直边当成y
: 同时我们也知道,直线的方程是 y=wx+b
: w跟b是未知数,假设为正数
: 现在我们只要把w跟b找出来就能解决这个问题
: 但是怎麽找?
: 答案是:先随便找一个数字填进去w跟b
: 先随便在桌上画一条线
: 算算看左右两边的硬币数量有没有等於50
: 如果有,那这个就是正确答案
: 如果没有,就算算看差距多少,如果左边80个、右边20个
: 代表我现在线太偏右边,应该要整条往左边移动
: 那我就把b的数字加大一点 —>整条线就会往左移
: 另外w则是决定整条线的斜率
: 也是要调调看,看怎样可以让硬币分得更接近50、50
: 上面「调整数字」的过程就是交给机器自己去执行,直到机器自己找出最适合的数值,让左
: 右两边的硬币刚好等於50 50
: 这就是「机器学习」的过程
: 这是很简化的例子,再具体一点,w跟b该变加大还是减小,其实都要透过人类写好的函数来
: 去决定方向、大小,这就牵涉到Loss值的计算跟微分求导数的过程,这边先不展开
: 总之,机器学习的过程就是像上面的方法,不断地测试、校正、测试、校正
: 然後我们会发现一件事:机器学习的过程,玩的是统计,而不是因果(这边的因果指的是像
: 规则式AI,或「若p则q,非q则非p」)
: 像是分硬币的过程,很可能会有好几条线都能刚好把硬币分成50、50
: 或者是完全没有线能把硬币分得刚好50、50(比方说有硬币不小心重叠了)
: 可能只能逼近,像是51、49
: 所以他找到的w跟b不会是唯一解、也不会是推理正解
: 机器学习的过程即是透过大量数据,去统计关联性,以尽可能逼近我们要的答案
: 所以他注定无法做真正意义上的推理,因为他本质不是规则式AI
对於AI的推理,已经有严格的定义
可以说是整个大语言模型的共识了
而哲学上的推理定义可以说没有真正的意义,每个人都是各说各话
https://www.youtube.com/watch?v=s00fy5RkCHc
排除BUG造成的幻觉
AI的"推理"是将"问题"拆解到最小单元
人类可以运用提示词将步骤正确的表达出来
在影片後面用到的是另一种叫做资料治理的技术
https://www.youtube.com/watch?v=N9T93sQsIHc
用更好的数据打基底,可以让模型更好的应用AI领域的推理
简单用数学的向量做譬喻
假设我们有四个词:“king”, “queen”, “man”, “woman”。
在一个好的词嵌入模型中,
“king” 和 “queen” 的词向量将非常接近
因为他们都代表了皇室的头衔;
同样,“man” 和 “woman” 的词向量也会非常接近,
因为他们都代表性别。
此外,词嵌入模型甚至可以捕获更复杂的关系。
例如,
从 “king” 的词向量中减去 “man” 的词向量并加上 “woman” 的词向量,
结果会非常接近 “queen” 的词向量。
这表示出了性别的差异:“king” 对於 “man” 就像 “queen” 对於 “woman”。
这在不可解释性的向量空间还是能找到权重值
更详细的处理过程还是不可解
: 当然,现在chatGPT 5透过严格的训练方法,可以很逼近真正的推理
AI比较像是想法的扩大器
多训练自己把问题步骤拆解
可以将这个工具用得更好
举个例子
1、以十波罗蜜这十个方向来解释金刚经
2、以六波罗蜜「布施(三轮体空,对治悭贪)、持戒(不伤害他人,对治恶业)、忍辱
(无生法忍,对治瞋恚)、精进(勤奋修行,对治懈怠)、禅定(心无杂念,对治散乱)
、般若(空性正见,对治愚痴)」这六个方向来解释金刚经
3、请你以四部宗义(毘婆沙宗、经部宗、唯识宗、中观自续派、中观应成派)的方向来解释金
刚经
常用AI就会知道上面三个问题出来的结果,侧重方向都会不一样
要会用不同角度去询问AI才能得到想要的东西
故意藏拙去测试AI的回应的话,得到的结果真的就会比较差
: (这边补充一点点:机器在学习的过程中,可能有某些参数能达到「推理」,但基於目前机
: 器学习的不可解释性,即便他学到了推理,我们也无法知道他是否真的学到了推理、还是只
: 是模仿了推理,所以这边先视作无法推理。我也很期待这个说法被推翻的那一天到来)
我会觉得大型语言模型有慢慢接近世间法的四无碍辩才
法无碍解:若将已知正确的问题详细拆解步骤,是能够仔细说明的。
义无碍解:可以将道理用不同角度去换句话说。
辞无碍解:资料库有各种情况的词汇。
乐说无碍解:随便怎麽问都不会生气的。
怎麽运用是看个人看法
但若能拿来用在各种情况的「六度万行」建议的话
我真的很推荐
: 以前我用chatGPT 4o 请他帮我搜寻并摘要报告 最近一周内的重大新闻,结果他搜出来「重
: 大新闻」,但是是两个月前的新闻,原因在於他的注意力机制,把重点放在「重大新闻」,
: 而不是「一周内」
: (现在同样的问题丢给chatGPT 5 ,比较能同时注意「一周内」跟「重大新闻」,所以不会
: 抓到旧闻给我)
: 现在的大型语言模型,还没办法真正地了解人类所思所想、或逻辑推理,大型语言模型只是
: 根据机器学习,用学出来的东西去预测自己应该要讲什麽,才能让使用者满意、最贴近真实
: 人类的回覆
: 这也是为什麽chatGPT 4o这麽擅长「称赞人类」
: 因为这是人类想看到的:人类越想被称赞,大型语言模型就越可能保留「称赞人类」的参数
: 当然chatGPT 5有努力去解决这个问题
: 另外现在也有人提出符合因果的机器学习,但都还在很初期的阶段(do模型)
: 结论是:目前的AI,距离真正理解人类知识还很遥远,但是这并不代表不能用
: 相反地,其实AI特别好用,我当初考硕士时读的书都还是请chatGPT推荐的
: 但也因为好用,更要小心用
: 了解他能做到什麽、不能做到什麽
: 就能在他最擅长的地方好好用他
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.226.206.243 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Buddhism/M.1759089392.A.DAA.html
1F:推 rsseek : 感谢补充,严格说起来,LLM不具备的是显式推理(大 09/29 11:45
2F:→ rsseek : 前提:人都会死;小前提:苏格拉底是人;。涵摄: 09/29 11:45
3F:→ rsseek : 苏格拉底是人,所以苏格拉底会死。);但是仍有可 09/29 11:45
4F:→ rsseek : 能透过一些方式去拥有隐式推理的能力。 09/29 11:45
这个反而是最没争议的
只要能呈现若P则Q的这种函数表达方式
所有神经网路经过训练应该要都能做到
首先要理解符号主义和连接主义的差别
这需要理解的东西很多
https://www.youtube.com/watch?v=LF9sd-2jCoY
这部影片到50几分钟前都是讲述建立这种泛化能力的运作过程
但就是现在LLM的BUG还是很多
譬如後台训练时答错跟回答不知道的评分都一样
很多幻觉是这样产生的......
※ 编辑: MartinJu (36.226.206.243 台湾), 09/29/2025 18:40:48
5F:推 rsseek : 先推一个,明天来看;如果要从统计数据的结果(神 09/29 23:05
6F:→ rsseek : 经网络学习到的权重)回过头来找符号(若p则q), 09/29 23:05
7F:→ rsseek : 看起来会先遇到模态对齐的问题 09/29 23:05
8F:推 rsseek : 上面的视频比较偏科普,具体我觉得可以先从深度神 09/30 12:47
9F:→ rsseek : 经网络的数学模型开始; 09/30 12:47
11F:→ rsseek : 深度神经网络主要源於非线性结构,这样的结构让机 09/30 12:47
12F:→ rsseek : 器获得泛化处理事物的能力 09/30 12:47
机器学习是线性代数的向量空间结构
深度神经网络是利用统计学强化向量分析
只是多一层隐藏层,相当於多一个维度
以数学角度来看
统计问题在当前变数不够分析时,有可能再往上多一层维度就可以
13F:→ rsseek : 而这个结构透过LOSS定义,来去做反向传播训练,除 09/30 12:47
14F:→ rsseek : 此之外,目前市面上的LLM则是再结合self-attention 09/30 12:47
15F:→ rsseek : 机制做出来的 09/30 12:47
16F:→ rsseek : 他的核心依然是统计,但「相关不等於因果」,虽然 09/30 12:47
https://youtu.be/LF9sd-2jCoY?t=2045
上面就是线性方程式
下面是统计可以改变的权重
本体是函数...
而足够大的函数可以描述全世界
17F:→ rsseek : 现在很多大厂努力透过思维链方式让LLM模拟人类思考 09/30 12:47
18F:→ rsseek : 过程 09/30 12:47
19F:→ rsseek : 尽可能逼近若p则q的推理,但是两者的本质不同,一 09/30 12:47
20F:→ rsseek : 者连续,一者离散 09/30 12:47
你可能比较难理解量变产生质变
https://www.youtube.com/watch?v=Oj9t2Lzj-rI
这个能解释AI运作的哲学
但牵扯一堆数学与哲学
数学和哲学有时候很看天分
有兴趣的话可以仔细研究
21F:→ rsseek : 目前两者之间还是有一个难以跨越的鸿沟 09/30 12:47
22F:→ rsseek : 这问题有点像是 09/30 12:48
23F:→ rsseek : 拿一张7根手指头的图片问chatGPT,图片里有几只手 09/30 12:48
24F:→ rsseek : 指头 09/30 12:48
25F:→ rsseek : 对他来说这问题他很容易出错,因为他无法像是人类 09/30 12:48
26F:→ rsseek : 用数数的方式,看着图片计算1、2、3、4、5、6、7, 09/30 12:48
27F:→ rsseek : 他只能先把图片转成文字:这是一张手的照片,而在 09/30 12:48
28F:→ rsseek : 转换的过程中会丢失「图片中有几只手指头」的资讯 09/30 12:48
29F:→ rsseek : ,这是模态对齐的问题 09/30 12:48
30F:→ rsseek : 但是从另一个角度说起来,人类的推理方式难道就是 09/30 12:48
31F:→ rsseek : 若p则q吗? 09/30 12:48
32F:→ rsseek : 这毕竟只是一个解决问题的工具 09/30 12:48
33F:→ rsseek : 从心理学中的「吊桥效应」可以看见,其实我们人类 09/30 12:48
34F:→ rsseek : 的大脑也是一个黑盒子 09/30 12:48
35F:→ rsseek : 我们也常常不知道自己的所思所想 09/30 12:48
36F:→ rsseek : 直到打出这一段文字之前,我也不知道我会打出什麽 09/30 12:48
37F:→ rsseek : 字,某种程度上,这也像是LLM的自回归,我打出了字 09/30 12:48
38F:→ rsseek : ,去推断下一个合理的字;就像写诗的「推敲」一样 09/30 12:48
39F:→ rsseek : ,也许人类思考事情的方式其实更接近LLM一点 09/30 12:48
40F:→ rsseek : 只是我们期待有一个工具,可以在做到自然语言的前 09/30 12:48
41F:→ rsseek : 提下,能达到若p则q专家系统的严谨性 09/30 12:48
42F:→ rsseek : 如果个人户要自己实作的话,我觉得n8n可行,就把系 09/30 12:48
43F:→ rsseek : 统串在一起就好了,只是不够泛用就是了 09/30 12:48
※ 编辑: MartinJu (36.226.206.243 台湾), 10/01/2025 20:25:36