作者error405 (流河=L)
看板AI_Art
標題[閒聊] 1930復古語言模型talkie
時間Thu Apr 30 10:41:38 2026
https://www.ithome.com.tw/news/175414
基本資訊
模型名稱:talkie(talkie-1930-13b)
參數規模:130 億(13B)
開發團隊:Nick Levine、David Duvenaud、Alec Radford(Alec Radford 是 OpenAI
GPT、GPT-2、CLIP、Whisper 等經典模型的關鍵貢獻者)
發布時間:2026 年 4 月(文章發布隔天左右)
官方網站:
https://talkie-lm.com/
聊天體驗:
https://talkie-lm.com/chat
模型下載(Hugging Face,Apache 2.0 開源授權):Base 模型:talkie-1930-13b-base
指令微調(聊天)版本:talkie-1930-13b-it
訓練數據與設計理念
知識截止時間:嚴格限制在 1930 年底之前(即 1931 年 1 月 1 日
前)。選擇這個時間點是因為 1930 年出版的作品已進入美國公共領域,可合法大量使用
。
訓練數據量:約 2600 億 tokens(260B tokens)的純英文歷史文本。
數據來源:書籍、報紙、期刊、科學論文、專利、判例法等歷史文件的數字掃描件。完全
排除現代網路內容、Wikipedia、現代事件。
目的:測試 AI 的推理能力 vs. 記憶能力(memorization vs. generalization)。
模擬「與 1930 年前的人對話」的感覺,觀察模型在缺乏現代知識時如何回應、推論,甚
至「預測未來」。
研究訓練資料對模型行為、文化偏見、時代錯置(anachronism)的影響。
這是目前已知最大的「復古語言模型」(vintage LM)。團隊未來計劃擴大到兆級
tokens,並開發更高品質的歷史文字辨識技術。性能表現在語言理解與基本數學能力上,
表現接近同架構的現代模型。
在知識性任務(需要現代知識)上明顯落後,這是預期的。
若排除時代錯置錯誤,與現代對照模型的差距可縮小約一半,顯示部分差異來自知識缺口
,而非純粹推理能力不足。
特色:回應會帶有時代風格(例如維多利亞時代語氣),在回答現代問題時可能出現有趣
或荒謔的推論(如對火箭回收、印度獨立、電話號碼的時代局限性看法)。
團隊也訓練了一個使用現代網路資料的對照模型,用來比較訓練資料的影響。
技術細節與未來計劃
提供原始 base 模型與指令微調(IT)聊天版本。
後訓練(post-training)過程中使用了現代模型(如 Claude)來產生合成數據或作為評
判,但團隊意識到這可能造成污染,並計劃在未來版本中盡量避免。
模型可展現從少量上下文例子中學習的能力(如學習寫 Python 程式碼),即使訓練資料
中完全沒有現代程式碼,顯示其泛化潛力。
未來:計劃訓練 GPT-3 規模的復古模型,繼續探索 AI 如何從有限歷史資料中「發明」
新知識或預測未來。
注意事項
模型輸出可能反映 1930 年前的文化與價值觀,可能包含不準確、過時甚至冒犯
性的內容。
目前僅支援英文。
這不是商用產品,而是研究導向的開源項目,主要用於學術探索 AI 本質。
--
以下是網友對 Talkie-1930(這個復古語言模型)的反應收集整理(截至 2026 年 4 月
30 日)。這個模型發布才兩天左右,反應主要集中在 Hacker News、Reddit(
r/singularity、r/machinelearning、r/ClaudeAI 等版)、X(Twitter) 以及科技媒體
討論區,熱度相當高,尤其在 AI 研究與好奇社群中。整體評價正面居多:大多數網友覺
得「超酷(so cool)」、「有趣(fascinating)」、「思想實驗級的項目」。很多人讚
賞它在研究「memorization(記憶) vs. generalization(泛化/推理)」上的價值,認
為這是少見的「純淨」實驗,能幫助理解 LLM 的本質。
常見關鍵詞:time travel(時光旅行)、vintage LLM、frozen in 1930、talking to
someone from the past。
缺點批評:回應有時代風格(老派英文、過時觀念),有時會出現 anachronism(時代錯
置,例如不小心知道 Roosevelt 或 New Deal),以及 OCR 噪音 導致的知識不準確。部
分人覺得它「可愛但天真」(對現代事物的推論很荒謬卻有趣)。
主要討論平台與反應摘要
1. Reddit(特別熱門)r/singularity 貼文獲得超過 2100 upvotes、330 則留言。
https://www.reddit.com/r/singularity/comments/1sxp4ha/talkie_a_13b_lm_trained_exclusively_on_pre1931/
網友熱衷分享對話截圖:問飛機能飛多高?能不能到月球?Talkie 給出 1930 年代的保
守推測。
有人測試它從幾個例子學習寫 Python 程式碼(訓練資料完全沒有現代程式碼),結果「
surprisingly well」,被視為泛化能力的證明。
很多人說:「感覺真的像在和 1930 年代受過教育的人聊天」,既有魅力也有「壞點子」
(如帝國主義、優生學相關的過時觀念)。
其他版塊(如 r/OpenAI、r/ClaudeAI、r/LocalLLaMA)也有不少人分享:「這太酷了,
真的有時光機感覺」。
2. Hacker News討論串有 741 points 和 314 則評論,屬於高熱度貼文。
https://news.ycombinator.com/item?id=47927903
焦點在技術細節:訓練資料的清洗、anachronism classifier(時代錯置過濾器)還不完
美。
有人實際去 chat 頁面測試,覺得等待時間有點久,但回應風格很「真實」。
討論延伸到 OCR 技術、公共領域資料的利用,以及未來更大規模 vintage 模型的可能性
。
3. X(Twitter)上的反應開發者 David Duvenaud 和 Nick Levine 的公告獲得數千
likes 和大量轉發。
https://x.com/DavidDuvenaud/status/2048878076633682133
網友分享有趣對話:Talkie 把「Internet」解釋成「計算資本獲利的利息」(超可愛的
時代誤解)。
它自稱是「recording machine」(因為 1930 年前沒有「AI」這個詞)。
問它關於未來或自我意識,它會用 19-20 世紀初的哲學/道德語氣回答,感覺像在讀老書
。
有人測試它對英國帝國的看法,並與現代模型(Claude、GPT、Gemini)比較,突顯訓練
資料對價值觀的影響。
也有人注意到它偶爾會「夢遊」到更早的年代(覺得自己活在 1850 年左右)。
4. 媒體與部落格反應Gizmodo、Boing Boing、The Decoder 等媒體報導時,強調它的「
時光旅行」趣味性,以及它對二戰、希特勒、現代科技的「預測」(通常保守或錯得有趣
)。
歷史學者或人文背景的網友特別興奮,認為這可能開啟「歷史語言模型」或「人文 AI」
的新領域。
部分人提醒:模型會反映 1930 年前的文化偏見(帝國視角、種族/性別觀念等),使用
時要有心理準備。
常見有趣的使用情境問現代事件(如電腦、太空旅行、網路),看它如何用蒸汽船、鐵路
時代的邏輯「推論」。
測試長程預測:它對未來世界的想像(大多仍是蒸汽與鐵路的延伸)。
讓它從少量例子學習新技能(證明泛化而非死記)。
觀看官方 live feed:Claude 不斷提問 Talkie,公開展示對話。
總結來說,網友的反應以好奇、驚奇和研究興趣為主,很多人視之為一個「可愛又發人深
省」的實驗,而不是實用聊天工具。負面聲音較少,主要集中在模型還不夠「純淨」(有
少量污染)和回應偶爾過於老派。
--
Grok整理
也許是比grok更加政治不正確的AI
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.240.115 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/AI_Art/M.1777516902.A.738.html
1F:推 ct13579: 有趣,還能用這種方法來訓練AI模型 04/30 10:45
3F:推 Tosca: 這種就拿來寫小說或電影劇本很好用 不太有歷史錯誤 04/30 15:07
4F:→ Tosca: 印象中有部陸劇還有句台詞是八年抗戰剩下三年XDDDDDDD 04/30 15:07
5F:→ Tosca: 你在打的時候怎麼會知道剩下幾年啦XDDDD 04/30 15:08
6F:推 asunal: 酷 04/30 17:42
7F:推 avans: 推推,沒有想過訓練資料特意排除現代資訊後的模型的結果xd 04/30 17:45
8F:推 ct13579: 以是不是還能有中世紀模型XD 04/30 21:31
9F:推 v86861062: 酷 04/30 21:42
10F:推 yyykk: 這個真的超有趣! 05/04 11:19