Buddhism 板


LINE

※ 引述《rsseek (RS)》之銘言: : ※ 引述 《sutranet》 之銘言: : : ## 5. 語言與 AI 的限制:能否理解「空」? : : : : 你說:「空」無法言說,而 AI 是基於語言訓練,是否能理解空? : : : : - 這很到位。佛教經常強調:「空不可言說,只能體證。」 : : - 語言只是指月之指,不能代替月亮。 : : - AI 可以模擬語言上的論述(比如我現在的回覆),但這不等於體悟。 : : - 在佛法角度,體悟「空」需要轉化心識,不是演算法的產物。 : : : : 所以:AI 可以「解釋空」,但不能「證悟空」。 : : : 閒來無事動動腦寫寫文字 : 推一下原文作者的這一段 : 原作者觀察得很精準: : 「用語言文字訓練出來的AI,是沒有能力處理超越語言文字(空性)的問題的」 : 最近讀碩,chatGPT真的幫了很大的忙 : 尤其是 5 ,真的海放 4o : 在知識細節處理得很到味 : 恰恰好小弟最近在學人工智慧這一塊 : 想說可以做一點點有關人工智慧的小分享 : 讓大家知道chatGPT在幹嘛、局限性在哪 : chatGPT本質是基於機器學習的大型語言模型 : 他會根據用戶輸入的字,自動選擇並輸出合理的文字 : 但機器學習是啥?顧名思義,機器自己會學習。 : 然而機器自己會學習又是什麼鬼? : 這部分可以從AI發展的脈絡解釋 : 早期的AI是規則式AI : 人類會先寫好所有的規則,讓機器自動根據人類寫好的規則運行 : 比方說早期的客服機器人: : 接收到「關鍵字」,吐出「顧客姓名」+預先寫好的內容 : 然而這樣的限制在於:人類很難清楚定義所有的規則交給AI運作 : 像是前面的客服機器人,只要顧客說出來的東西跟「關鍵字」有一點點偏差,機器人就無法 : 順利回應 : 比方說 : 設定好的關鍵字是「謝謝」->機器人回應:「不客氣」 : 一旦顧客說「乾蝦」->機器人就不會回應了 : 只要人類沒有先寫好規則,機器人就無法回應 : 但是人類的語言如此複雜,怎麼可能先寫好所有的規則 : 所以是時候換機器學習上場了 : 那機器要怎麼學習? : 簡單舉一個例子 : 假設我面前的桌子上,有隨機散落的100個硬幣 : 我現在要找一條直線,這條直線必須可以把這100個硬幣剛好切分開來,變成左邊50個硬幣 : 、右邊50個硬幣 : 因為桌子是平面的 : 我們可以把桌子的橫邊當成x,垂直邊當成y : 同時我們也知道,直線的方程是 y=wx+b : w跟b是未知數,假設為正數 : 現在我們只要把w跟b找出來就能解決這個問題 : 但是怎麼找? : 答案是:先隨便找一個數字填進去w跟b : 先隨便在桌上畫一條線 : 算算看左右兩邊的硬幣數量有沒有等於50 : 如果有,那這個就是正確答案 : 如果沒有,就算算看差距多少,如果左邊80個、右邊20個 : 代表我現在線太偏右邊,應該要整條往左邊移動 : 那我就把b的數字加大一點 —>整條線就會往左移 : 另外w則是決定整條線的斜率 : 也是要調調看,看怎樣可以讓硬幣分得更接近50、50 : 上面「調整數字」的過程就是交給機器自己去執行,直到機器自己找出最適合的數值,讓左 : 右兩邊的硬幣剛好等於50 50 : 這就是「機器學習」的過程 : 這是很簡化的例子,再具體一點,w跟b該變加大還是減小,其實都要透過人類寫好的函數來 : 去決定方向、大小,這就牽涉到Loss值的計算跟微分求導數的過程,這邊先不展開 : 總之,機器學習的過程就是像上面的方法,不斷地測試、校正、測試、校正 : 然後我們會發現一件事:機器學習的過程,玩的是統計,而不是因果(這邊的因果指的是像 : 規則式AI,或「若p則q,非q則非p」) : 像是分硬幣的過程,很可能會有好幾條線都能剛好把硬幣分成50、50 : 或者是完全沒有線能把硬幣分得剛好50、50(比方說有硬幣不小心重疊了) : 可能只能逼近,像是51、49 : 所以他找到的w跟b不會是唯一解、也不會是推理正解 : 機器學習的過程即是透過大量數據,去統計關聯性,以盡可能逼近我們要的答案 : 所以他注定無法做真正意義上的推理,因為他本質不是規則式AI 對於AI的推理,已經有嚴格的定義 可以說是整個大語言模型的共識了 而哲學上的推理定義可以說沒有真正的意義,每個人都是各說各話 https://www.youtube.com/watch?v=s00fy5RkCHc
排除BUG造成的幻覺 AI的"推理"是將"問題"拆解到最小單元 人類可以運用提示詞將步驟正確的表達出來 在影片後面用到的是另一種叫做資料治理的技術 https://www.youtube.com/watch?v=N9T93sQsIHc
用更好的數據打基底,可以讓模型更好的應用AI領域的推理 簡單用數學的向量做譬喻 假設我們有四個詞:“king”, “queen”, “man”, “woman”。 在一個好的詞嵌入模型中, “king” 和 “queen” 的詞向量將非常接近 因為他們都代表了皇室的頭銜; 同樣,“man” 和 “woman” 的詞向量也會非常接近, 因為他們都代表性別。 此外,詞嵌入模型甚至可以捕獲更複雜的關係。 例如, 從 “king” 的詞向量中減去 “man” 的詞向量並加上 “woman” 的詞向量, 結果會非常接近 “queen” 的詞向量。 這表示出了性別的差異:“king” 對於 “man” 就像 “queen” 對於 “woman”。 這在不可解釋性的向量空間還是能找到權重值 更詳細的處理過程還是不可解 : 當然,現在chatGPT 5透過嚴格的訓練方法,可以很逼近真正的推理 AI比較像是想法的擴大器 多訓練自己把問題步驟拆解 可以將這個工具用得更好 舉個例子 1、以十波羅蜜這十個方向來解釋金剛經 2、以六波羅蜜「布施(三輪體空,對治慳貪)、持戒(不傷害他人,對治惡業)、忍辱 (無生法忍,對治瞋恚)、精進(勤奮修行,對治懈怠)、禪定(心無雜念,對治散亂) 、般若(空性正見,對治愚癡)」這六個方向來解釋金剛經 3、請你以四部宗義(毘婆沙宗、經部宗、唯識宗、中觀自續派、中觀應成派)的方向來解釋金 剛經 常用AI就會知道上面三個問題出來的結果,側重方向都會不一樣 要會用不同角度去詢問AI才能得到想要的東西 故意藏拙去測試AI的回應的話,得到的結果真的就會比較差 : (這邊補充一點點:機器在學習的過程中,可能有某些參數能達到「推理」,但基於目前機 : 器學習的不可解釋性,即便他學到了推理,我們也無法知道他是否真的學到了推理、還是只 : 是模仿了推理,所以這邊先視作無法推理。我也很期待這個說法被推翻的那一天到來) 我會覺得大型語言模型有慢慢接近世間法的四無礙辯才 法無礙解:若將已知正確的問題詳細拆解步驟,是能夠仔細說明的。 義無礙解:可以將道理用不同角度去換句話說。 辭無礙解:資料庫有各種情況的詞彙。 樂說無礙解:隨便怎麼問都不會生氣的。 怎麼運用是看個人看法 但若能拿來用在各種情況的「六度萬行」建議的話 我真的很推薦 : 以前我用chatGPT 4o 請他幫我搜尋並摘要報告 最近一週內的重大新聞,結果他搜出來「重 : 大新聞」,但是是兩個月前的新聞,原因在於他的注意力機制,把重點放在「重大新聞」, : 而不是「一週內」 : (現在同樣的問題丟給chatGPT 5 ,比較能同時注意「一週內」跟「重大新聞」,所以不會 : 抓到舊聞給我) : 現在的大型語言模型,還沒辦法真正地了解人類所思所想、或邏輯推理,大型語言模型只是 : 根據機器學習,用學出來的東西去預測自己應該要講什麼,才能讓使用者滿意、最貼近真實 : 人類的回覆 : 這也是為什麼chatGPT 4o這麼擅長「稱讚人類」 : 因為這是人類想看到的:人類越想被稱讚,大型語言模型就越可能保留「稱讚人類」的參數 : 當然chatGPT 5有努力去解決這個問題 : 另外現在也有人提出符合因果的機器學習,但都還在很初期的階段(do模型) : 結論是:目前的AI,距離真正理解人類知識還很遙遠,但是這並不代表不能用 : 相反地,其實AI特別好用,我當初考碩士時讀的書都還是請chatGPT推薦的 : 但也因為好用,更要小心用 : 了解他能做到什麼、不能做到什麼 : 就能在他最擅長的地方好好用他 --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.206.243 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Buddhism/M.1759089392.A.DAA.html
1F:推 rsseek : 感謝補充,嚴格說起來,LLM不具備的是顯式推理(大 09/29 11:45
2F:→ rsseek : 前提:人都會死;小前提:蘇格拉底是人;。涵攝: 09/29 11:45
3F:→ rsseek : 蘇格拉底是人,所以蘇格拉底會死。);但是仍有可 09/29 11:45
4F:→ rsseek : 能透過一些方式去擁有隱式推理的能力。 09/29 11:45
這個反而是最沒爭議的 只要能呈現若P則Q的這種函數表達方式 所有神經網路經過訓練應該要都能做到 首先要理解符號主義和連接主義的差別 這需要理解的東西很多 https://www.youtube.com/watch?v=LF9sd-2jCoY
這部影片到50幾分鐘前都是講述建立這種泛化能力的運作過程 但就是現在LLM的BUG還是很多 譬如後台訓練時答錯跟回答不知道的評分都一樣 很多幻覺是這樣產生的...... ※ 編輯: MartinJu (36.226.206.243 臺灣), 09/29/2025 18:40:48
5F:推 rsseek : 先推一個,明天來看;如果要從統計數據的結果(神 09/29 23:05
6F:→ rsseek : 經網絡學習到的權重)回過頭來找符號(若p則q), 09/29 23:05
7F:→ rsseek : 看起來會先遇到模態對齊的問題 09/29 23:05
8F:推 rsseek : 上面的視頻比較偏科普,具體我覺得可以先從深度神 09/30 12:47
9F:→ rsseek : 經網絡的數學模型開始; 09/30 12:47
10F:→ rsseek : https://reurl.cc/z5ax0p 09/30 12:47
11F:→ rsseek : 深度神經網絡主要源於非線性結構,這樣的結構讓機 09/30 12:47
12F:→ rsseek : 器獲得泛化處理事物的能力 09/30 12:47
機器學習是線性代數的向量空間結構 深度神經網絡是利用統計學強化向量分析 只是多一層隱藏層,相當於多一個維度 以數學角度來看 統計問題在當前變數不夠分析時,有可能再往上多一層維度就可以
13F:→ rsseek : 而這個結構透過LOSS定義,來去做反向傳播訓練,除 09/30 12:47
14F:→ rsseek : 此之外,目前市面上的LLM則是再結合self-attention 09/30 12:47
15F:→ rsseek : 機制做出來的 09/30 12:47
16F:→ rsseek : 他的核心依然是統計,但「相關不等於因果」,雖然 09/30 12:47
https://youtu.be/LF9sd-2jCoY?t=2045
上面就是線性方程式 下面是統計可以改變的權重 本體是函數... 而足夠大的函數可以描述全世界
17F:→ rsseek : 現在很多大廠努力透過思維鏈方式讓LLM模擬人類思考 09/30 12:47
18F:→ rsseek : 過程 09/30 12:47
19F:→ rsseek : 盡可能逼近若p則q的推理,但是兩者的本質不同,一 09/30 12:47
20F:→ rsseek : 者連續,一者離散 09/30 12:47
你可能比較難理解量變產生質變 https://www.youtube.com/watch?v=Oj9t2Lzj-rI
這個能解釋AI運作的哲學 但牽扯一堆數學與哲學 數學和哲學有時候很看天分 有興趣的話可以仔細研究
21F:→ rsseek : 目前兩者之間還是有一個難以跨越的鴻溝 09/30 12:47
22F:→ rsseek : 這問題有點像是 09/30 12:48
23F:→ rsseek : 拿一張7根手指頭的圖片問chatGPT,圖片裡有幾隻手 09/30 12:48
24F:→ rsseek : 指頭 09/30 12:48
25F:→ rsseek : 對他來說這問題他很容易出錯,因為他無法像是人類 09/30 12:48
26F:→ rsseek : 用數數的方式,看著圖片計算1、2、3、4、5、6、7, 09/30 12:48
27F:→ rsseek : 他只能先把圖片轉成文字:這是一張手的照片,而在 09/30 12:48
28F:→ rsseek : 轉換的過程中會丟失「圖片中有幾隻手指頭」的資訊 09/30 12:48
29F:→ rsseek : ,這是模態對齊的問題 09/30 12:48
30F:→ rsseek : 但是從另一個角度說起來,人類的推理方式難道就是 09/30 12:48
31F:→ rsseek : 若p則q嗎? 09/30 12:48
32F:→ rsseek : 這畢竟只是一個解決問題的工具 09/30 12:48
33F:→ rsseek : 從心理學中的「吊橋效應」可以看見,其實我們人類 09/30 12:48
34F:→ rsseek : 的大腦也是一個黑盒子 09/30 12:48
35F:→ rsseek : 我們也常常不知道自己的所思所想 09/30 12:48
36F:→ rsseek : 直到打出這一段文字之前,我也不知道我會打出什麼 09/30 12:48
37F:→ rsseek : 字,某種程度上,這也像是LLM的自回歸,我打出了字 09/30 12:48
38F:→ rsseek : ,去推斷下一個合理的字;就像寫詩的「推敲」一樣 09/30 12:48
39F:→ rsseek : ,也許人類思考事情的方式其實更接近LLM一點 09/30 12:48
40F:→ rsseek : 只是我們期待有一個工具,可以在做到自然語言的前 09/30 12:48
41F:→ rsseek : 提下,能達到若p則q專家系統的嚴謹性 09/30 12:48
42F:→ rsseek : 如果個人戶要自己實作的話,我覺得n8n可行,就把系 09/30 12:48
43F:→ rsseek : 統串在一起就好了,只是不夠泛用就是了 09/30 12:48
※ 編輯: MartinJu (36.226.206.243 臺灣), 10/01/2025 20:25:36







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:iOS站內搜尋

TOP