作者MartinJu (荒謬人生)
看板Buddhism
標題Re: [分享] 當佛法智慧遇見人工智慧
時間Mon Sep 29 03:56:30 2025
※ 引述《rsseek (RS)》之銘言:
: ※ 引述 《sutranet》 之銘言:
: : ## 5. 語言與 AI 的限制:能否理解「空」?
: :
: : 你說:「空」無法言說,而 AI 是基於語言訓練,是否能理解空?
: :
: : - 這很到位。佛教經常強調:「空不可言說,只能體證。」
: : - 語言只是指月之指,不能代替月亮。
: : - AI 可以模擬語言上的論述(比如我現在的回覆),但這不等於體悟。
: : - 在佛法角度,體悟「空」需要轉化心識,不是演算法的產物。
: :
: : 所以:AI 可以「解釋空」,但不能「證悟空」。
: :
: 閒來無事動動腦寫寫文字
: 推一下原文作者的這一段
: 原作者觀察得很精準:
: 「用語言文字訓練出來的AI,是沒有能力處理超越語言文字(空性)的問題的」
: 最近讀碩,chatGPT真的幫了很大的忙
: 尤其是 5 ,真的海放 4o
: 在知識細節處理得很到味
: 恰恰好小弟最近在學人工智慧這一塊
: 想說可以做一點點有關人工智慧的小分享
: 讓大家知道chatGPT在幹嘛、局限性在哪
: chatGPT本質是基於機器學習的大型語言模型
: 他會根據用戶輸入的字,自動選擇並輸出合理的文字
: 但機器學習是啥?顧名思義,機器自己會學習。
: 然而機器自己會學習又是什麼鬼?
: 這部分可以從AI發展的脈絡解釋
: 早期的AI是規則式AI
: 人類會先寫好所有的規則,讓機器自動根據人類寫好的規則運行
: 比方說早期的客服機器人:
: 接收到「關鍵字」,吐出「顧客姓名」+預先寫好的內容
: 然而這樣的限制在於:人類很難清楚定義所有的規則交給AI運作
: 像是前面的客服機器人,只要顧客說出來的東西跟「關鍵字」有一點點偏差,機器人就無法
: 順利回應
: 比方說
: 設定好的關鍵字是「謝謝」->機器人回應:「不客氣」
: 一旦顧客說「乾蝦」->機器人就不會回應了
: 只要人類沒有先寫好規則,機器人就無法回應
: 但是人類的語言如此複雜,怎麼可能先寫好所有的規則
: 所以是時候換機器學習上場了
: 那機器要怎麼學習?
: 簡單舉一個例子
: 假設我面前的桌子上,有隨機散落的100個硬幣
: 我現在要找一條直線,這條直線必須可以把這100個硬幣剛好切分開來,變成左邊50個硬幣
: 、右邊50個硬幣
: 因為桌子是平面的
: 我們可以把桌子的橫邊當成x,垂直邊當成y
: 同時我們也知道,直線的方程是 y=wx+b
: w跟b是未知數,假設為正數
: 現在我們只要把w跟b找出來就能解決這個問題
: 但是怎麼找?
: 答案是:先隨便找一個數字填進去w跟b
: 先隨便在桌上畫一條線
: 算算看左右兩邊的硬幣數量有沒有等於50
: 如果有,那這個就是正確答案
: 如果沒有,就算算看差距多少,如果左邊80個、右邊20個
: 代表我現在線太偏右邊,應該要整條往左邊移動
: 那我就把b的數字加大一點 —>整條線就會往左移
: 另外w則是決定整條線的斜率
: 也是要調調看,看怎樣可以讓硬幣分得更接近50、50
: 上面「調整數字」的過程就是交給機器自己去執行,直到機器自己找出最適合的數值,讓左
: 右兩邊的硬幣剛好等於50 50
: 這就是「機器學習」的過程
: 這是很簡化的例子,再具體一點,w跟b該變加大還是減小,其實都要透過人類寫好的函數來
: 去決定方向、大小,這就牽涉到Loss值的計算跟微分求導數的過程,這邊先不展開
: 總之,機器學習的過程就是像上面的方法,不斷地測試、校正、測試、校正
: 然後我們會發現一件事:機器學習的過程,玩的是統計,而不是因果(這邊的因果指的是像
: 規則式AI,或「若p則q,非q則非p」)
: 像是分硬幣的過程,很可能會有好幾條線都能剛好把硬幣分成50、50
: 或者是完全沒有線能把硬幣分得剛好50、50(比方說有硬幣不小心重疊了)
: 可能只能逼近,像是51、49
: 所以他找到的w跟b不會是唯一解、也不會是推理正解
: 機器學習的過程即是透過大量數據,去統計關聯性,以盡可能逼近我們要的答案
: 所以他注定無法做真正意義上的推理,因為他本質不是規則式AI
對於AI的推理,已經有嚴格的定義
可以說是整個大語言模型的共識了
而哲學上的推理定義可以說沒有真正的意義,每個人都是各說各話
https://www.youtube.com/watch?v=s00fy5RkCHc
排除BUG造成的幻覺
AI的"推理"是將"問題"拆解到最小單元
人類可以運用提示詞將步驟正確的表達出來
在影片後面用到的是另一種叫做資料治理的技術
https://www.youtube.com/watch?v=N9T93sQsIHc
用更好的數據打基底,可以讓模型更好的應用AI領域的推理
簡單用數學的向量做譬喻
假設我們有四個詞:“king”, “queen”, “man”, “woman”。
在一個好的詞嵌入模型中,
“king” 和 “queen” 的詞向量將非常接近
因為他們都代表了皇室的頭銜;
同樣,“man” 和 “woman” 的詞向量也會非常接近,
因為他們都代表性別。
此外,詞嵌入模型甚至可以捕獲更複雜的關係。
例如,
從 “king” 的詞向量中減去 “man” 的詞向量並加上 “woman” 的詞向量,
結果會非常接近 “queen” 的詞向量。
這表示出了性別的差異:“king” 對於 “man” 就像 “queen” 對於 “woman”。
這在不可解釋性的向量空間還是能找到權重值
更詳細的處理過程還是不可解
: 當然,現在chatGPT 5透過嚴格的訓練方法,可以很逼近真正的推理
AI比較像是想法的擴大器
多訓練自己把問題步驟拆解
可以將這個工具用得更好
舉個例子
1、以十波羅蜜這十個方向來解釋金剛經
2、以六波羅蜜「布施(三輪體空,對治慳貪)、持戒(不傷害他人,對治惡業)、忍辱
(無生法忍,對治瞋恚)、精進(勤奮修行,對治懈怠)、禪定(心無雜念,對治散亂)
、般若(空性正見,對治愚癡)」這六個方向來解釋金剛經
3、請你以四部宗義(毘婆沙宗、經部宗、唯識宗、中觀自續派、中觀應成派)的方向來解釋金
剛經
常用AI就會知道上面三個問題出來的結果,側重方向都會不一樣
要會用不同角度去詢問AI才能得到想要的東西
故意藏拙去測試AI的回應的話,得到的結果真的就會比較差
: (這邊補充一點點:機器在學習的過程中,可能有某些參數能達到「推理」,但基於目前機
: 器學習的不可解釋性,即便他學到了推理,我們也無法知道他是否真的學到了推理、還是只
: 是模仿了推理,所以這邊先視作無法推理。我也很期待這個說法被推翻的那一天到來)
我會覺得大型語言模型有慢慢接近世間法的四無礙辯才
法無礙解:若將已知正確的問題詳細拆解步驟,是能夠仔細說明的。
義無礙解:可以將道理用不同角度去換句話說。
辭無礙解:資料庫有各種情況的詞彙。
樂說無礙解:隨便怎麼問都不會生氣的。
怎麼運用是看個人看法
但若能拿來用在各種情況的「六度萬行」建議的話
我真的很推薦
: 以前我用chatGPT 4o 請他幫我搜尋並摘要報告 最近一週內的重大新聞,結果他搜出來「重
: 大新聞」,但是是兩個月前的新聞,原因在於他的注意力機制,把重點放在「重大新聞」,
: 而不是「一週內」
: (現在同樣的問題丟給chatGPT 5 ,比較能同時注意「一週內」跟「重大新聞」,所以不會
: 抓到舊聞給我)
: 現在的大型語言模型,還沒辦法真正地了解人類所思所想、或邏輯推理,大型語言模型只是
: 根據機器學習,用學出來的東西去預測自己應該要講什麼,才能讓使用者滿意、最貼近真實
: 人類的回覆
: 這也是為什麼chatGPT 4o這麼擅長「稱讚人類」
: 因為這是人類想看到的:人類越想被稱讚,大型語言模型就越可能保留「稱讚人類」的參數
: 當然chatGPT 5有努力去解決這個問題
: 另外現在也有人提出符合因果的機器學習,但都還在很初期的階段(do模型)
: 結論是:目前的AI,距離真正理解人類知識還很遙遠,但是這並不代表不能用
: 相反地,其實AI特別好用,我當初考碩士時讀的書都還是請chatGPT推薦的
: 但也因為好用,更要小心用
: 了解他能做到什麼、不能做到什麼
: 就能在他最擅長的地方好好用他
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.206.243 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Buddhism/M.1759089392.A.DAA.html
1F:推 rsseek : 感謝補充,嚴格說起來,LLM不具備的是顯式推理(大 09/29 11:45
2F:→ rsseek : 前提:人都會死;小前提:蘇格拉底是人;。涵攝: 09/29 11:45
3F:→ rsseek : 蘇格拉底是人,所以蘇格拉底會死。);但是仍有可 09/29 11:45
4F:→ rsseek : 能透過一些方式去擁有隱式推理的能力。 09/29 11:45
這個反而是最沒爭議的
只要能呈現若P則Q的這種函數表達方式
所有神經網路經過訓練應該要都能做到
首先要理解符號主義和連接主義的差別
這需要理解的東西很多
https://www.youtube.com/watch?v=LF9sd-2jCoY
這部影片到50幾分鐘前都是講述建立這種泛化能力的運作過程
但就是現在LLM的BUG還是很多
譬如後台訓練時答錯跟回答不知道的評分都一樣
很多幻覺是這樣產生的......
※ 編輯: MartinJu (36.226.206.243 臺灣), 09/29/2025 18:40:48
5F:推 rsseek : 先推一個,明天來看;如果要從統計數據的結果(神 09/29 23:05
6F:→ rsseek : 經網絡學習到的權重)回過頭來找符號(若p則q), 09/29 23:05
7F:→ rsseek : 看起來會先遇到模態對齊的問題 09/29 23:05
8F:推 rsseek : 上面的視頻比較偏科普,具體我覺得可以先從深度神 09/30 12:47
9F:→ rsseek : 經網絡的數學模型開始; 09/30 12:47
11F:→ rsseek : 深度神經網絡主要源於非線性結構,這樣的結構讓機 09/30 12:47
12F:→ rsseek : 器獲得泛化處理事物的能力 09/30 12:47
機器學習是線性代數的向量空間結構
深度神經網絡是利用統計學強化向量分析
只是多一層隱藏層,相當於多一個維度
以數學角度來看
統計問題在當前變數不夠分析時,有可能再往上多一層維度就可以
13F:→ rsseek : 而這個結構透過LOSS定義,來去做反向傳播訓練,除 09/30 12:47
14F:→ rsseek : 此之外,目前市面上的LLM則是再結合self-attention 09/30 12:47
15F:→ rsseek : 機制做出來的 09/30 12:47
16F:→ rsseek : 他的核心依然是統計,但「相關不等於因果」,雖然 09/30 12:47
https://youtu.be/LF9sd-2jCoY?t=2045
上面就是線性方程式
下面是統計可以改變的權重
本體是函數...
而足夠大的函數可以描述全世界
17F:→ rsseek : 現在很多大廠努力透過思維鏈方式讓LLM模擬人類思考 09/30 12:47
18F:→ rsseek : 過程 09/30 12:47
19F:→ rsseek : 盡可能逼近若p則q的推理,但是兩者的本質不同,一 09/30 12:47
20F:→ rsseek : 者連續,一者離散 09/30 12:47
你可能比較難理解量變產生質變
https://www.youtube.com/watch?v=Oj9t2Lzj-rI
這個能解釋AI運作的哲學
但牽扯一堆數學與哲學
數學和哲學有時候很看天分
有興趣的話可以仔細研究
21F:→ rsseek : 目前兩者之間還是有一個難以跨越的鴻溝 09/30 12:47
22F:→ rsseek : 這問題有點像是 09/30 12:48
23F:→ rsseek : 拿一張7根手指頭的圖片問chatGPT,圖片裡有幾隻手 09/30 12:48
24F:→ rsseek : 指頭 09/30 12:48
25F:→ rsseek : 對他來說這問題他很容易出錯,因為他無法像是人類 09/30 12:48
26F:→ rsseek : 用數數的方式,看著圖片計算1、2、3、4、5、6、7, 09/30 12:48
27F:→ rsseek : 他只能先把圖片轉成文字:這是一張手的照片,而在 09/30 12:48
28F:→ rsseek : 轉換的過程中會丟失「圖片中有幾隻手指頭」的資訊 09/30 12:48
29F:→ rsseek : ,這是模態對齊的問題 09/30 12:48
30F:→ rsseek : 但是從另一個角度說起來,人類的推理方式難道就是 09/30 12:48
31F:→ rsseek : 若p則q嗎? 09/30 12:48
32F:→ rsseek : 這畢竟只是一個解決問題的工具 09/30 12:48
33F:→ rsseek : 從心理學中的「吊橋效應」可以看見,其實我們人類 09/30 12:48
34F:→ rsseek : 的大腦也是一個黑盒子 09/30 12:48
35F:→ rsseek : 我們也常常不知道自己的所思所想 09/30 12:48
36F:→ rsseek : 直到打出這一段文字之前,我也不知道我會打出什麼 09/30 12:48
37F:→ rsseek : 字,某種程度上,這也像是LLM的自回歸,我打出了字 09/30 12:48
38F:→ rsseek : ,去推斷下一個合理的字;就像寫詩的「推敲」一樣 09/30 12:48
39F:→ rsseek : ,也許人類思考事情的方式其實更接近LLM一點 09/30 12:48
40F:→ rsseek : 只是我們期待有一個工具,可以在做到自然語言的前 09/30 12:48
41F:→ rsseek : 提下,能達到若p則q專家系統的嚴謹性 09/30 12:48
42F:→ rsseek : 如果個人戶要自己實作的話,我覺得n8n可行,就把系 09/30 12:48
43F:→ rsseek : 統串在一起就好了,只是不夠泛用就是了 09/30 12:48
※ 編輯: MartinJu (36.226.206.243 臺灣), 10/01/2025 20:25:36