作者patvessel (帕特貝賽爾)
看板AI_Art
標題Re: [閒聊] 1913年以前資料訓練的AI
時間Wed Dec 24 20:46:01 2025
這東西實在是...太棒了。(語彙力喪失)
我覺得這搞不好才是LLM帶來最有價值的東西。
要是這個專案繼續擴大,說不定我們會有各種年份的時間切片模型。
這代表:
我們可能可以回到2000年了解當年對於網路前景發展的預測。
我們可以回到2017年試著尋找社會有沒有對於大型瘟疫的警戒心。
甚至回到1988年代,試著了解當代人認為東西德的未來會如何發展。
這能夠最大程度的去除後見之明與倖存者偏差,創造出極為珍貴的近一手資料。
絕對能帶來無法衡量的研究價值與貢獻能力,遠遠超過那些還虛無縹緲的AGI和ASI。
(個人意見)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.229.28.82 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/AI_Art/M.1766580365.A.E7E.html
1F:推 error405: 再也不用擔心問阿公他唬洨你 12/24 20:48
2F:推 Tosca: 想太多了吧=.= 一堆很簡單的問題都不一定回答得了了 12/24 20:49
3F:→ Tosca: 好比 統一國家這個概念好了 中國和日本都有統一全國的慾望 12/24 20:49
4F:→ Tosca: 所以兩國幾千年來都常常打內戰 12/24 20:49
5F:→ patvessel: 2F你這種想法就是典型的萬能偏誤 最珍貴的不是全能 12/24 20:49
6F:→ Tosca: 好 那我就問 台灣原住民為什麼沒有統一全島的慾望?! 12/24 20:49
7F:→ patvessel: 而是如何重建當時的無知 12/24 20:50
8F:→ Tosca: 荷蘭人來台前 為什麼沒有原住民嘗試統一全台灣?! 12/24 20:50
9F:→ Tosca: 你不是重建當時的無知 你只是重建一個平行宇宙=.= 12/24 20:50
10F:→ patvessel: 期待能獲得所有答案就是不切實際的 重要的是提供資料 12/24 20:50
11F:→ Tosca: 這就像恐龍再生好了 說穿了只是再生另一種怪物 不是恐龍 12/24 20:50
12F:→ Tosca: 這個在侏儸紀公園第一集就直接講了 12/24 20:51
13F:→ Tosca: 所以你以為你在重建歷史 不是的 你只是重建平行宇宙而已 12/24 20:51
14F:→ patvessel: 不過我想了想你說的都對 請你高抬貴手別理我了 12/24 20:52
15F:推 TangEHow: 可以吧?就像當前的宇宙學模型一樣,沒人說他肯定對, 12/24 23:53
16F:→ TangEHow: 但大致上都能對的上,就先當他是對的 12/24 23:53
17F:→ TangEHow: 同理,建構的模型對的上該時代的大事件就當他是有正確 12/24 23:53
18F:→ TangEHow: 度的,並用其去做模擬,學術上很常這麼做啊 12/24 23:53
19F:→ TangEHow: 技術上有前提有難點,但我不認為能用「想太多」直接說 12/24 23:53
20F:→ TangEHow: 死 12/24 23:53
21F:推 Supasizeit: 就類似毒樹毒果 基本上這些所謂訓練都是RAG了不起fin 12/25 00:27
22F:→ Supasizeit: e tune 基本上預訓練的參數都還在 12/25 00:27
23F:→ Supasizeit: 實務上不存在單純的回到過去LLM 你知道全參數訓練一 12/25 00:28
24F:→ Supasizeit: 個4B要花多少錢嗎 12/25 00:28
25F:推 Tosca: 也是 那我收回"想太多" 是我想不夠多沒想到模擬這塊 12/25 08:40
26F:推 Supasizeit: 你沒辦法模擬的 LLM是non deterministic 12/25 11:48
27F:→ Supasizeit: 你只能模仿 那不叫模擬 12/25 11:49